本文分类:news发布日期:2026/4/22 13:03:36
打赏

相关文章

llama.cpp本地部署LLM

llama.cpp本地部署LLM 环境OS:Windows/Linux GPU: AMD Radeon 660M专用显存:495MB 共享显存:7886MB内存:16GB安装llama.cpp 由于我是AMD显卡,所以用不了CUDA。我试过了用CPU推理,太慢且负载过重了,所以还是要用…

手机版浏览

扫一扫体验

微信公众账号

微信扫一扫加关注

返回
顶部