当 ChatGPT、Claude、Gemini 等大模型席卷全球时,你是否好奇——这些强大的 AI 背后,究竟是什么让它们“理解”和“生成”语言?答案正是那篇震撼深度学习界的论文——《Attention Is All You Need》。
在本次讲座中,Swircle 的 AI Product Tech Lead —— Emelie 老师 将带你从浅入深地理解 Transformer 架构的核心原理。从 RNN/LSTM 的时代局限讲起,逐步拆解 Encoder-Decoder 的设计思路,讲解 Embedding、Positional Encoding、自注意力机制(Self-Attention)、残差连接(Residual)等关键模块。你将看到,Transformer 如何凭借并行计算与全局依赖建模,彻底改变了机器学习的范式。
Emelie 老师还将分享 Transformer 对后续模型(如 BERT、GPT、T5)的影响与启示,并探讨“Attention 真的是 All You Need 吗?”这一发人深省的问题。
📅 讲座时间:11月18日(周二)晚 8:00 – 9:00(悉尼时间)
💻 形式:线上讲座(Zoom)
👩🏫 主讲人:Emelie — Swircle AI Product Tech Lead
无论你是刚入门的学习者,还是想深入理解大模型机制的工程师,这场讲座都将带你重新认识深度学习的核心力量。
✨ 一起揭开 Transformer 改变世界的秘密吧!