V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
frankyzf
V2EX  ›  Local LLM

ollama 推出 windows 版的 preview,可以在本地跑大模型,在老机器上跑感觉效果不错

  •  
  •   frankyzf · 299 天前 · 2050 次点击
    这是一个创建于 299 天前的主题,其中的信息可能已经有所发展或是发生改变。

    ollama 是个可以跑多种大模型的平台,可以跑 llama2, mistral 等。我机器比较老,windows 10 ,32G 内存,只有 2G 显存。但看起来速度还可以接受( mistral ),下载模型也只需要几分钟。安装完用的 mistral ,即后面这个命令ollama run mistral。当作本地的 code 助手应该比较方便。

    下载链接

    6 条回复    2024-02-16 14:54:44 +08:00
    imzcg2
        1
    imzcg2  
       299 天前
    amd 6800h 80%cpu
    reeco
        2
    reeco  
       299 天前   ❤️ 1
    自己编译一下 llama.cpp ,一样的效果
    frankyzf
        3
    frankyzf  
    OP
       299 天前
    @reeco 谢谢,我试试
    mumbler
        4
    mumbler  
       299 天前
    太慢了,没用上 avx2 指令集,我自己编译的比官方快得多
    cwyalpha
        5
    cwyalpha  
       299 天前 via iPhone
    楼主跑的时候应该是用的内存不是显存?
    frankyzf
        6
    frankyzf  
    OP
       299 天前
    @cwyalpha 嗯,看了下用的是 CPU 而不是 GPU ,可能显存太小了。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2724 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 26ms · UTC 14:30 · PVG 22:30 · LAX 06:30 · JFK 09:30
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.