自然语言处理NLP星空智能对话机器人系列:NLP on Transformers 101第5章
第5章: Autoencoding Language Models数学原理及模型架构解析1,Auto-encoding Language Models通用数学原理详解 2,为何要放弃采用Feature-Based语言模型ELMo而使用Fine-tuning模型? 3,双向语言模型:both left-to-right and right-to-left不同实现及数学原理解析 4,深度双向语言模型背后的数学原理及物理机制 5,Unsupervised Fine-tuning训练模型架构及数学原理解析 6,Transfer Learning数学原理及工程实现详解 7,MLM(Masked Language Models)数学原理及工程架构解析 8,MLM问题解析及解决方案分析 9,Pre-training + Fine-tuning的BERT分层架构体系及组件解析 10,BERT的三层复合Embeddings解析 11,BERT不同模块的参数复杂度分析 12,BERT在进行Masking操作中采用10%随机选取词库的内容进行替换masked位置的内容的数学原理剖析 13,BERT在进行Masking操作中采用10%的内容维持不变的数学原理揭秘 14,BERT的Masking机制五大缺陷及其解决方案分析 15,BERT的Masking机制在Data Enchancement方面的妙用 16,BERT的Masking机制在处理智能对话系统中不规范用语甚至是错误语法及用词的妙用 17ÿ