自然语言处理NLP星空智能对话机器人系列:NLP on Transformers 101 第7章
第7章: BERT Fine-tuning源码完整实现、调试及案例实战 1,数据预处理训练集、测试集源码 2,文本中的Token、Mask、Padding的预处理源码 3,数据的Batch处理实现源码及测试 4,加载Pre-training模型的BertModel及BertTokenizer 5,模型Config配置 6,Model源码实现、测试、调试 7,BERT Model微调的数学原理及工程实践 8,BERT Model参数Frozen数学原理及工程实践 9,BertAdam数学原理及源码剖析 10,训练train方法源码详解 11,fully-connected neural network层源码详解及调试 12,采用Cross-Entropy Loss Function数学原理及代码实现 13,Evaluation 指标解析及源码实现 14,Classification任务下的Token设置及计算技巧 15,适配特定任务的Tokenization解析 16,BERT + ESIM(Enhanced Sequential Inference Model)强化BERT模型 17,使用BERT + LSTM整合强化BERT 模型 18,基于Movie数据的BERT Fine-tuning案例完整代码实现、测试及调试