您当前的位置: 首页 > 

静静喜欢大白

暂无认证

  • 1浏览

    0关注

    521博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文

【前向传播+反向传播直观理解】

静静喜欢大白 发布时间:2020-09-21 23:39:22 ,浏览量:1

转载 https://blog.csdn.net/u014365862/article/details/54728707?utm_source=blogxgwz0

为了感谢大神,我是跪在电脑前fork的。

问题描述与动机:

  • 大家都知道的,其实我们就是在给定的图像像素向量x和对应的函数,然后我们希望能够计算在上的梯度()

  • 我们之所以想解决这个问题,是因为在神经网络中,对应损失函数,而输入则对应训练样本数据和神经网络的权重。举一个特例,损失函数可以是SVM loss function,而输入则对应样本数据和权重以及偏移项。需要注意的一点是,在我们的场景下,通常我们认为训练数据是给定的,而权重是我们可以控制的变量。因此我们为了更新权重的等参数,使得损失函数值最小,我们通常是计算对参数的梯度。不过我们计算其在上的梯度有时候也是有用的,比如如果我们想做可视化以及了解神经网络在『做什么』的时候。

直观地理解,反向传播可以看做图解求导的链式法则。 

最后我们用一组图来说明实际优化过程中的正向传播与反向残差传播: 

1  
2  
3  
4  
5  
6  
7  
8  
9  
10  
11  
12  
13  
14  
15  
16  
17  
18
关注
打赏
1510642601
查看更多评论
立即登录/注册

微信扫码登录

0.0370s