鱼C论坛

 找回密码
 立即注册

21.递归神经网络

已有 205 次阅读2019-7-24 18:08 |个人分类:自然语言



为什么有BP神经网络,CNN还需要RNN
    BP神经网络和CNN的输入输出都是相互独立的,但是实际应用种有些场景输出内容和之前的内容有关联.
    RNN引入"记忆"的概念;递归指其每一个元素都执行相同的任务,但是输出依赖于输入和"记忆"
    我们已经学习了前馈网络的两种结构--bp神经网络和卷积神经网络,这两种结构有一个特点,就是假设输入
    是一个独立的没有上下文联系的单位,但是对于一些有明显的上下问特征的序列化输入,比如预测视频中
    下一帧的播放内容,那么很明显这样的输出必须依赖以前的输入,也就是说网络必须拥有一定的"记忆能力".
    为了赋予网络这样的记忆力,一种特殊结构的神经网络--递归神经网路便应运而生了.

    为了克服梯度消失的问题,LSTM和GRU模型便后续被推出了,为什么LSTM和GRU可以克服梯度消失问题尼?由于
    它们都有特殊的方式储存"记忆",那么以前梯度比较大的"记忆"不会像简单的RNN一样马上被抹除,因此可以
    一定程度上克服梯度消失问题,另一个简单的技巧可以用来克服梯度爆炸的问题就是gradient clipping,也就
    是当你计算的梯度超过阈值c的或者小于阈值-c时候,便把此时的梯度设置成c或-c.
    

路过

鸡蛋

鲜花

握手

雷人

全部作者的其他最新日志

评论 (0 个评论)

facelist

您需要登录后才可以评论 登录 | 立即注册

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2024-5-25 09:11

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

返回顶部