- 自然语言处理之序列模型 - 小象学院
- 从循环到卷积,探索序列建模的奥秘 - 机器之心
从循环到卷积,探索序列建模的奥秘 - 机器之心
-
序列建模就是将一个输入/观测序列映射到一个输出/标记序列
《统计学习方法》中称之为标注问题
-
在传统机器学习方法中,常用的模型有:隐马尔可夫模型(HMM),条件随机场(CRF)等
机器学习专题 TODO
-
在深度学习领域的很长一段时间里,RNN/LSTM 都是序列建模的默认配置。
《深度学习》中直接使用“序列建模:循环和递归网络”作为章节名
-
最近,CNN 开始在序列建模领域流行,一个关键想法是——在一维时间序列上使用一维卷积运算
CNN for Sentence Classification (Kim, 2014)
-
循环神经网络本质上是一个递推函数
-
考虑隐藏状态和输入
-
RNN 的计算图(无输出单元)
DL-RNN#RNN 的几种设计模型(3)
-
加入输出单元
-
完整的计算图
一般来说,有两种 RNN 的基本结构:Elman network 和 Jordan network;目前深度学习领域通常所说的 RNN 指的是前者
Recurrent neural network - Wikipedia
DL-RNN
DL-RNN
-
一般认为 CNN 擅长处理网格结构的数据,比如图像(二维像素网络)
- 卷积层试图将神经网络中的每一小块进行更加深入的分析,从而得出抽象程度更高的特征。
- 一般来说通过卷积层处理的神经元结点矩阵会变得更深,即神经元的组织在第三个维度上会增加。
-
时序数据同样可以认为是在时间轴上有规律地采样而形成的一维网格
CNN for Sentence Classification (Kim, 2014)
-
适用于序列建模的卷积网络一般就是采用的是一维卷积
- 最下层的
x_i
可视为句子的输入序列 - 最上层的
g_j
即输出序列 - 流行的网络中一般使用 embedding 作为输入,也就说每个
x_i
其实是一个多维向量v(x_i)
- 最下层的
Reference
- WaveNet: A Generative Model for Raw Audio | DeepMind
- ibab/tensorflow-wavenet - GitHub
- 一种门限机制
Deep Residual Learning for Image Recognition (He, et al., 2015)