本文分类:news发布日期:2025/12/31 11:16:28
打赏

相关文章

使用Markdown数学公式书写Transformer注意力机制

使用Markdown数学公式书写Transformer注意力机制 在深度学习模型日益复杂的今天,如何清晰、准确地表达其内部机制,已成为研究与工程实践中的一大挑战。尤其是在 Transformer 架构主导 NLP 领域的当下,注意力机制 的数学描述不仅关乎模型理解&…

transformer模型详解之位置编码Positional Encoding实现

Transformer 模型中的位置编码:从原理到实现 在现代自然语言处理系统中,Transformer 已成为事实上的标准架构。无论是 GPT 系列的生成模型,还是 BERT 风格的编码器结构,其核心都依赖于自注意力机制带来的强大上下文建模能力。然而…

2025年度OI总结

本篇写于 \(2025.12.31\)。 流水账警告24年12月 记得当时考完 NOIP 之后,就回班上课了,然后上了 \(4\) 周课左右吧,刘老师通知可以跟着当时初三提前招上来来学信息的人一起停课继续学,当时水平很菜啊,感觉啥都不会…

手机版浏览

扫一扫体验

微信公众账号

微信扫一扫加关注

返回
顶部