本文分类:news发布日期:2025/12/16 15:00:52
打赏

相关文章

vLLM-Ascend部署Qwen3-Next大模型指南

vLLM-Ascend 部署 Qwen3-Next 大模型实战指南 在当前企业级大模型推理场景中,如何在保证高吞吐、低延迟的同时充分利用国产算力平台的性能潜力,已成为AI基础设施建设的关键挑战。华为 Ascend 910B(Atlas A2/A3 系列)凭借其强大的N…

HuggingFace PEFT微调后的模型如何部署进Anything-LLM?

HuggingFace PEFT微调后的模型如何部署进Anything-LLM? 在当前大语言模型(LLMs)快速发展的背景下,越来越多开发者希望将通用模型适配到特定业务场景中。然而,全参数微调动辄需要多张高端GPU、数十GB显存和漫长的训练周…

知乎开源Zhi-Create-Qwen3-32B:创意写作增强大模型

知乎开源Zhi-Create-Qwen3-32B:创意写作增强大模型 在生成式AI日益普及的今天,一个尖锐的问题始终萦绕在开发者和内容创作者心头:大模型究竟能否写出真正打动人心的文字? 不只是语法正确、逻辑通顺的“标准答案”,而是…

LobeChat能否部署在树莓派上?边缘设备运行可行性测试

LobeChat 能否部署在树莓派上?边缘设备运行可行性深度实测 你有没有想过,用一台百元级的树莓派,搭出一个完全离线、不联网也能对话的大模型助手?不需要依赖 OpenAI 云服务,所有聊天记录都留在家里,还能语音…

LLaMA-Factory分布式训练实战指南

LLaMA-Factory分布式训练实战指南 在大模型落地日益成为AI工程核心命题的今天,如何高效、稳定地完成微调任务,是每个开发者绕不开的挑战。尤其当模型参数从7B跃升至13B甚至更高时,显存压力和训练效率问题便接踵而至。LLaMA-Factory 作为当前最…

手机版浏览

扫一扫体验

微信公众账号

微信扫一扫加关注

返回
顶部