V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
41
相关节点
 显示 36 个更多的相关节点
localllm
V2EX  ›  Local LLM
主题总数 170 RSS
这个节点讨论在本地电脑或者局域网里运行 LLM(大语言模型)的技术细节
1  2  3  4  5  6  7  8  9  
laijh 个人电脑,适合跑哪个本地大模型?
laijh  •  9 天前  •  最后回复来自 mili100
21
PalWorld 多卡部署 QWQ Q8 是否可行
PalWorld  •  16 天前  •  最后回复来自 coefuqin
3
abc0123xyz intel 显卡跑 Qwen3-14B-GGUF:Q8_0
abc0123xyz  •  22 天前  •  最后回复来自 coefuqin
6
lemonTreeTop 目前性价比最高的跑本地大模型显卡是?
lemonTreeTop  •  21 天前  •  最后回复来自 CoffeeY
17
cuteshell 学习大模型的显卡怎么选型
cuteshell  •  29 天前  •  最后回复来自 coefuqin
30
WessonC 求本地部署的 AI 推荐~
WessonC  •  31 天前  •  最后回复来自 happybabys
11
guoguobaba mac studio 跑大模型也就那样啊
guoguobaba  •  44 天前  •  最后回复来自 fredweili
26
idblife 有没有能 mac 上直接跑的多语言翻译 LLM?
idblife  •  32 天前  •  最后回复来自 mili100
4
afkool 英语文本音频按句自动对齐的有推荐的吗?
afkool  •  55 天前  •  最后回复来自 barnetime
8
kid1412621 本地 llm client
kid1412621  •  75 天前  •  最后回复来自 kid1412621
5
Woolaman 公司要搭建本地大模型,推荐配置。
Woolaman  •  75 天前  •  最后回复来自 coefuqin
10
1  2  3  4  5  6  7  8  9  
第 1 到 20 / 共 170 个主题
166 人收藏了这个节点
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   968 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 24ms · UTC 21:46 · PVG 05:46 · LAX 14:46 · JFK 17:46
Developed with CodeLauncher
♥ Do have faith in what you're doing.
OSZAR »