本文分类:news发布日期:2026/3/14 13:52:25
打赏

相关文章

LoRA高级技巧:α参数调节与多模型混合的艺术

LoRA高级技巧:α参数调节与多模型混合的艺术 【免费下载链接】lora Using Low-rank adaptation to quickly fine-tune diffusion models. 项目地址: https://gitcode.com/gh_mirrors/lora2/lora LoRA(Low-rank adaptation)作为快速微调…

QLoRA中的注意力机制优化:FlashAttention集成指南

QLoRA中的注意力机制优化:FlashAttention集成指南 【免费下载链接】qlora QLoRA: Efficient Finetuning of Quantized LLMs 项目地址: https://gitcode.com/gh_mirrors/ql/qlora QLoRA(Quantized Low-Rank Adaptation)作为高效微调量化…

手机版浏览

扫一扫体验

微信公众账号

微信扫一扫加关注

返回
顶部