随着神经网络算法在图像、语音等领域都大幅度超越传统算法,但在应用到实际项目中却面临两个问题:计算量巨大及模型体积过大,不利于移动端和嵌入式的场景;模型内存占用过大,导致功耗和电量消耗过高。因此,如何对神经网络模型进行优化,使尽可能不损失精度的情况下,能减少模型的体积,并且计算量也降低,就是我们将深度学习在更广泛地场景下应用时要解决的问题。本场 Chat 主要包括:
- 加速神经网络模型计算的主要方向
- 目前模型压缩的 4 类主流方法
- 模型剪枝的过程、特点,及在经典神经网络模型中的剪枝结果
- 模型量化的过程、特点及基本原理
- TensorFlow 下的模型压缩工具:量化实例、实现及表示
- 实战在经典神经网络 ResNet50 上的模型压缩实验及收益提升
阅读全文: http://gitbook.cn/gitchat/activity/59fedfd14a44631ce856b3e9
您还可以下载 CSDN 旗下精品原创内容社区 GitChat App ,阅读更多 GitChat 专享技术内容哦。