论文笔记 2026.04.02 《Attention Is All You Need》学习笔记 系统梳理 Transformer 的提出动机、编码器—解码器结构、多头注意力、位置编码、训练策略与实验结论,适合作为论文回顾与索引。 论文笔记 Transformer 注意力机制 NLP 深度学习