课程内容包含:Encoder/Decoder结构与注意力机制,BERT、GPT系列模型原理,Tokenization与文本向量化等内容
开始学习课程内容包含:Encoder/Decoder结构与注意力机制,BERT、GPT系列模型原理,Tokenization与文本向量化等内容
开始学习01-初识Transformer
10:5002-老模型的局限
20:2103-Transformer的应用场景
31:0304-为什么学习Transformer
13:2705-课程路线图
12:3806-小结
08:3201-什么是注意力机制
25:3502-自注意力
16:0603-多头注意力
22:4604-编码器
12:3605-解码器
12:4906-编码器+解码器全流程
11:1307-为什么Transformer高效
16:4408-小结
12:0201-什么是分词
15:3502-分词的挑战
06:0803-文本向量化
20:1304-词嵌入word embedding
15:3005-Tokenization和Transformer
15:3006-小结
10:1001-什么是BERT01
29:3802-什么是BERT02
14:2503-什么是BERT预训练
26:5204-什么是BERT微调
17:5305-什么是BERT应用
29:3006-什么是BERT和Transformer
15:2907-小结
10:1101-什么是GPT
29:1902-GPT的预训练
13:1203-GPT的进化
17:5604-GPT的应用
28:1005-BERT和GPT的对比
26:0906-Transformer的未来
23:0907-课程总回顾
07:2808-学习资源推荐
31:5309-小结
19:46
评论发表成功
确定