本文分类:news发布日期:2026/1/1 14:51:55
相关文章
Ascend NPU适配进展:国产芯片上的大模型训练新突破
Ascend NPU适配进展:国产芯片上的大模型训练新突破
在大模型研发如火如荼的今天,一个现实问题正日益凸显:算力资源高度集中于少数几家海外厂商,尤其是英伟达GPU几乎垄断了全球高端AI训练市场。这种局面不仅推高了研发成本…
建站知识
2026/1/1 14:51:23
手把手教你扩展RISC-V指令集:基于C语言的AI加速器设计全攻略(仅限专业人士)
第一章:手把手教你扩展RISC-V指令集:基于C语言的AI加速器设计全攻略(仅限专业人士)在高性能嵌入式AI应用中,通用RISC-V处理器面临算力瓶颈。通过定制指令扩展,可显著提升矩阵运算与激活函数等关键操作的执行…
建站知识
2026/1/1 14:51:15
Git Commit自动化优化:利用大模型生成高质量提交信息
Git Commit自动化优化:利用大模型生成高质量提交信息
在每天成千上万次的代码提交中,有多少人曾为写一条“像样”的git commit -m消息而停下思考?又有多少仓库里充斥着“update”、“fix typo”这类几乎毫无信息量的提交记录?这些…
建站知识
2026/1/1 14:51:15
安装包太大难管理?ms-swift提供模块化轻量部署解决方案
安装包太大难管理?ms-swift提供模块化轻量部署解决方案
在大模型落地越来越频繁的今天,你是否也遇到过这样的窘境:为了跑一个7B参数的模型,不得不下载上百GB的镜像包,等了半天环境才装好,结果发现显存不够、…
建站知识
2026/1/1 14:51:15
All-to-All全模态模型训练探索:打通文本、图像、音频边界
All-to-All全模态模型训练探索:打通文本、图像、音频边界
在智能体系统日益追求“类人感知”的今天,一个根本性问题摆在我们面前:为什么AI能读懂文字、看懂图片、听清语音,却始终难以像人类一样自然地将这些信息融合理解、跨模态表…
建站知识
2026/1/1 14:50:26
GPTQ INT4量化实战:将70B模型塞进单张A100显卡
GPTQ INT4 Quantization in Practice: Fitting a 70B Model into a Single A100 GPU
在当今大模型技术飞速发展的背景下,百亿参数级语言模型已成为自然语言处理任务的标配。然而,这些庞然大物对计算资源的需求也达到了前所未有的高度——以 Qwen-72B 或 …
建站知识
2026/1/1 14:50:17
数据集不够怎么办?ms-swift内置150+预训练数据集免费开放
数据集不够怎么办?ms-swift内置150预训练数据集免费开放
在大模型研发日益普及的今天,一个现实问题正困扰着无数开发者:数据从哪来?
你可能已经选好了基座模型,设计好了微调流程,甚至搭好了训练集群——但当…
建站知识
2026/1/1 14:50:09
FSDP分布式训练实战:在多节点环境中高效扩展模型规模
FSDP分布式训练实战:在多节点环境中高效扩展模型规模
在当前大模型参数量动辄上百亿甚至千亿的背景下,单卡训练早已无法满足显存和计算需求。面对 Qwen-72B、LLaMA-65B 这类庞然大物,如何在有限的 A100 集群上完成微调任务?这不仅…
建站知识
2026/1/1 14:49:56

