本文分类:news发布日期:2026/2/24 20:50:18
打赏

相关文章

LoRA 为什么必须把一个矩阵初始化为0

LoRA(Low-Rank Adaptation)中必须把其中一个矩阵(通常是 B)初始化为 0 的核心原因,是为了让微调在第0步(刚加载预训练权重时)不改变原模型的任何输出,也就是实现“从预训练模型精确起…

《梦断代码》读书笔记

作为一名软件工程大二学生,在系统学习了编程基础、数据结构等核心课程,初步参与小型课程项目、体会过编码之外的协作难题后,我翻开了斯科特罗森伯格的《梦断代码》。这本诞生于2008年的著作,以作者长期田野调查为基…

手机版浏览

扫一扫体验

微信公众账号

微信扫一扫加关注

返回
顶部