第32章:基于Fourier Transform的Transformer模型FNet架构内幕及完整源码实现 1,BERT中Attention本质和功能再思考 2,fourier transform数学原理剖析 3,使用fourier transform取代self-attention layer 4,为什么采用fourier transform会fewer parameters及more memory efficient? 5,fourier transform有效性带来的“mix” input tokens操作的思考 6,FNet处理longer input lengths的设计及实现 7,PreTrainedTokenizer源码完整实现剖析 8,get_special_tokens_mask源码完整实现剖析 9,tokenize源码完整实现剖析 10,FNetTokenizer源码完整实现剖析 11,FNetEmbeddings源码完整实现剖析 12,fourier_transform方法源码完整实现剖析 13,FNetBasicFourierTransform源码完整实现剖析 14,FNetFourierTransform源码完整实现剖析 15,FNetBasicOutput源码完整实现剖析 16,FNetOutput源码完整实现剖析 17,FNetIntermediate源码完整实现剖析 18,FNetLayer源码完整实现剖析 19,FNetEncoder源码完整实现剖析 20,FNetPooler源码完整实现剖析 21,FNetPredictionHeadTransform源码完整实
Transformer课程 第32章Transformer模型FNet架构
关注
打赏