递归神经网络

中间层激励保存??

下一刻重新输入

记忆功能???

第一个输入得到第一个输出,存储中间量,

之前的输出和新的输入,产生新的中间层,

工作过程

文本处理(训练)

一个神经元,不同时刻

每个时刻都有输出

损失函数

反向计算和传统神经网络相同

作用

语言

文本信息处理

多层是神经网络,双向网络

梯度问题

梯度>1容易察觉

梯度<1难以发现,梯度消失

解决方法:

非线性激励

LSTM长短记忆单元

Gate

保存重要记忆

LSTM

Peephole connection

生成单词之间的条件概率

Gate忘记/更新

GRU

lSTM工作方式

Word2Vec

语言处理特征提取

1.建立字典,没个词生成一个one-hot向量

2.训练数据集构建

3.简单神经网络(中见词语:不同词之间的相互关系)

保存中间层

4.生成最终的Vect

特点:

利用上下文进行学习

两个词上下文类似,生成的vector会接近

具有类比特性:king-queen+female=male

字符->数据

results matching ""

    No results matching ""