文本生成赋予机器“说”的能力,是自然语言处理中一个有趣的话题。深度学习第三课为大家提供一个使用深度神经网络训练的对话机器人,来体验深度学习方法的乐趣,也是对技术局限性的探索。
这一课会寻找以下问题的答案:
- 问题的数学描述以及基础积木。我们会介绍建模时序数据的循环神经网络,从RNN到LSTM到GRU,到底发生了怎样的变化。
- 该构建怎样的模型?我们会介绍神经图灵机的框架,编码器解码器结构、注意力机制都是神经图灵机的一个特例。
- 如何训练模型?我们会介绍如何训练深层循环神经网络,讨论计算代价以及一些算法层面的加速策略。
- 这一课的最终会回答:机器真的学会了说话吗?技术的局限在哪里?
本场Chat所有内容都可以通过短短的代码在PaddlePaddle平台下运行,希望为大家展示利用PaddlePaddle中高度灵活、计算高效的RNN完成复杂自然语言处理任务的方法和潜力。
实录提要:
- 这些文本生成的技术可以直接用于做一个聊天机器人吗?
- PaddlePaddle 在超算集群性能如何?
- gru 和 lstm 有没有可能出现梯度爆炸的问题呢?
- 在文本生成上,强化学习或者 GAN 有没有什么尝试或者成果呢?
- 目前增强学习跟 RNN 有什么交集吗?
- FPGA、ASIC 哪种形式更适合机器学习的商业化?
- 语言是非线性类型的问题吗?
- 深度学习第一课
- 深度学习第二课:个性化推荐
阅读全文: http://gitbook.cn/gitchat/activity/58db477343dee26a5512767c
您还可以下载 CSDN 旗下精品原创内容社区 GitChat App ,阅读更多 GitChat 专享技术内容哦。