标签:: Vicuna

LLM本地部署踩坑记录:ChatGLM、Vicuna、InternLM实战经验

LLM本地部署踩坑记录:ChatGLM、Vicuna、InternLM实战经验去年折腾了快半年的大模型本地部署,踩了不少坑,记录一下供参考。主要涉及ChatGLM-6B、Vicuna、InternLM这几个模型的部署和优化。 硬件与软件环境部署大模型最头疼的就是硬件门槛。我整理了当时测试过的配置: 模型 显存需求 推荐配置 ChatGLM-6B 12GB+ RTX 3060 12GB