本课程是一套**零基础也能听懂、从原理到代码全覆盖的Transformer精讲教程**,专为想入门人工智能、深度学习、大模型底层原理的学习者打造。课程用**通俗语言+超强动画+可视化拆解**,避开复杂公式恐惧,从基础神经网络、矩阵运算、词嵌入讲起,一步步带你吃透Transformer核心逻辑,真正做到**初中生也能听懂大模型底层**。
课程系统讲解注意力机制、Encoder-Decoder结构、Decoder-only架构、数学原理、代码实现,同时延伸到ViT视觉Transformer、位置编码、TNT模型、AxialAttention等主流变体,并结合医学图像分割等实战场景,从理论到项目落地一站式教学。你将从零手搓Transformer完整代码,理解大模型为什么强大、如何工作、如何应用到NLP与计算机视觉领域。
无论是学生、转行AI、程序员、科研爱好者,都能通过这套教程**快速建立大模型认知**,搞懂ChatGPT等模型的底层核心,为后续学习大模型微调、部署、实战打下坚实基础。
---
# 课程目录
01 从函数到神经网络
02 计算神经网络的参数
03 调教神经网络的方法
04 从矩阵到CNN
05 从词嵌入到RNN
06 简单而强大的Transformer
07 速览大模型100词
1. 手搓Transformer代码上半部分
2. 手搓Transformer代码下半部分
超强动画,一步一步深入浅出解释Transformer原理!
1. Transformer模型
2. Decoder-only Transformer模型
3. Transformer数学原理
4. Transformer代码实现
5. 注意力机制可视化
6. Transformer可视化讲解
7. Transformer发家史介绍
8. 对图像数据构建patch序列
9. VIT整体架构解读
10. CNN遇到的问题与窘境
11. 计算公式解读
12. 位置编码与TNT模型
13. TNT模型细节分析
14. Transformer在医学分割领域应用与拓展
15. 项目环境配置
16. 医学数据介绍与分析
17. 基本处理操作
18. AxialAttention实现过程
19. 位置编码向量解读
20. 注意力计算过程与方法
21. 局部特征提取与计算
最新评论