本文分类:news发布日期:2026/4/22 13:02:39
打赏

相关文章

llama.cpp本地部署LLM

llama.cpp本地部署LLM 环境OS:Windows/Linux GPU: AMD Radeon 660M专用显存:495MB 共享显存:7886MB内存:16GB安装llama.cpp 由于我是AMD显卡,所以用不了CUDA。我试过了用CPU推理,太慢且负载过重了,所以还是要用…

【2026-04-21】下班闲记

20:00计利当计天下利,求名应求万世名。——于右任下午跟客户开完会后,已经6点多了。从下午两点半真扯4个小时的会议讨论,啥精力都耗没了。原本想打个滴滴返回公司,但打开导一看,全线路通红,我放弃了。搜了一下附…

手机版浏览

扫一扫体验

微信公众账号

微信扫一扫加关注

返回
顶部