您当前的位置: 首页 >  机器人

段智华

暂无认证

  • 0浏览

    0关注

    1232博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文

GavinNLP星空对话机器人Transformer课程片段2

段智华 发布时间:2021-11-14 17:02:44 ,浏览量:0

GavinNLP星空对话机器人Transformer课程片段2:数学内幕、注意力机制代码实现、及Transformer可视化:揭示了Transformer最核心的数学原理:贝叶斯公式的数学内幕,并提供注意力机制代码实现、及通过对Transformer可视化来展示其内部的工作机制,通俗易懂的阐述了NLP生成语言模型中贝叶斯公式的数学本质。

GavinNLP Transformer数学注意力及可视化

星空智能对话机器人的Gavin认为Transformer是拥抱数据不确定性的艺术。

Transformer的架构、训练及推理等都是在Bayesian神经网络不确定性数学思维下来完成的。Encoder-Decoder架构、Multi-head注意力机制、Dropout和残差网络等都是Bayesian神经网络的具体实现;基于Transformer各种模型变种及实践也都是基于Bayesian思想指导下来应对数据的不确定性;混合使用各种类型的Embeddings来提供更好Prior信息其实是应用Bayesian思想来集成处理信息表达的不确定性、各种现代NLP比赛中高分的作品也大多是通过集成RoBERTa、GPT、ELECTRA、XLNET等Transformer模型等来尽力从最大程度来对抗模型信息表示和推理的不确定性。

从数学原理的角度来说,传统Machine Learning及Deep learning算法训练的目标函数一般是基于Naive Bayes数学原理下的最大似然估计MLE和最大后验概率MAP来实现,其核心是寻找出最佳的模型参数;

关注
打赏
1659361485
查看更多评论
立即登录/注册

微信扫码登录

0.0444s