写在前面

本篇来学习如何在Windows上安装属于开发者自己的大模型,主要以Ollama为例进行介绍。Ollama 是一款优秀的开源工具,让开发者可以在本地轻松运行和管理各种大型语言模型(LLMs)。

Ollama介绍

Ollama 是一个简化大型语言模型(LLM)部署和使用的工具。它具有以下特点:

  • 本地运行: 模型完全在您的本地计算机上运行,无需联网,保护您的隐私和数据安全。
  • 简单易用: 通过简单的命令行指令,即可下载、运行和管理各种 LLM。
  • 模型丰富: 支持 Llama 2、Deepseek、Mistral、Gemma 等多种流行的开源模型。
  • 跨平台: 支持 macOS、Windows 和 Linux 系统。
  • 开放API:支持与OpenAI兼容的接口,可以和其他工具集成。

安装Ollama

Windows平台安装

点击 Ollama官网,选择合适的版本:

之后笔者将其下载到F盘,但是笔者希望将Ollama安装到E盘的指定目录下,此时可以是以如下方式进行安装目录自定义:

执行该命令,之后就会将Ollama安装到自定义目录下。

MacOS平台安装

点击 Ollama官网,选择合适的版本:

当然也可以到它们对应的github网站上获取:

Linux平台安装

点击 Ollama官网,选择合适的版本:

可以看到这里没有提供直接的下载地址,而是使用命令:

1
curl -fsSL https://ollama.com/install.sh | sh

实际上就是下载并执行,不过由于网络波动,笔者还是建议先下载该脚本:

1
wget  https://ollama.com/install.sh

之后修改Ollama的安装目录,安装成功后查看一下版本:

1
2
D:\Application\ollama>ollama -v
ollama version is 0.9.0

安装对应模型

自定义模型安装路径

首先,停止运行Ollama,接着打开系统环境变量,在里面新增一个名为OLLAMA_MODELS的变量名,值为笔者打算存放模型的路径E:\OllamaModels\models,完整参数如下:

之后需要重新启动Ollama,这样才能保证自定义路径已经生效。

安装对应模型

点击Ollama官网中的Models模块,可以看到这里面列举了很多常用的模型:

笔者这里选择deepseek-r1模型,同时选择了deepseek-r1:1.5b这一分支:

之后在控制台执行如下命令来运行对应模型:

1
ollama run deepseek-r1:1.5b

安装成功后,出现Send a message则表明已经安装成功:

此时可以进入到之前自定义的模型存储路径:

也可以使用如下命令:

1
2
3
4
E:\Application\Ollama>ollama list
NAME ID SIZE MODIFIED
deepseek-r1:1.5b e0979632db5a 1.1 GB 29 minutes ago
qwen3:1.7b 8f68893c685c 1.4 GB 47 minutes ago

可以看到这里展示了笔者已经安装成功的2个模型。

可视化调用

尽管模型启动后,可以使用终端进行交互,但是界面不美观,而且不易于管理,因此笔者建议使用可视化工具进行调用,这里选择CheeryStudio。

为什么选择CheeryStudio

之所以选择使用CheeryStudio中使用Ollama,是因为它具有如下四个特点:

  • 无需云服务: 不再受限于云端 API 的配额和费用,尽情体验本地 LLM 的强大功能。
  • 数据隐私: 您的所有对话数据都保留在本地,无需担心隐私泄露。
  • 离线可用: 即使在没有网络连接的情况下,也能继续与 LLM 进行交互。
  • 定制化: 可以根据您的需求,选择和配置最适合您的 LLM

CheeryStudio的安装

点击 cherry官网,选择对应的版本进行下载:

请注意,在使用CheeryStudio与Ollama模型交互期间,需要保证Ollama处于运行状态。

配置Ollama模型

第一步,运行Ollama模型,然后打开CheeryStudio。

第二步,打开CheeryStudio中的设置,在设置页面选择模型服务,然后点击列表中的Ollama:

第三步,配置Ollama服务商。在服务商列表中找到刚刚添加的 Ollama,并进行详细配置:

  1. 启用状态:
    • 确保 Ollama 服务商最右侧的开关已打开,表示已启用。
  2. API 密钥:
    • Ollama 默认不需要 API 密钥。您可以将此字段留空,或者填写任意内容。
  3. API 地址:

填写 Ollama 提供的本地 API 地址。通常情况下,地址为:

1
http://localhost:11434/

如果修改了端口,请自行更改。

  1. 模型管理:
    • 点击“+ 添加”按钮,手动添加您在 Ollama 中已经下载的模型名称。
    • 比如您已经通过<font style="color:rgb(31, 28, 28);">ollama run llama3.2</font>下载了<font style="color:rgb(31, 28, 28);">llama3.2</font>模型, 那么此处可以填入<font style="color:rgb(31, 28, 28);">llama3.2</font>
    • 点击“管理”按钮,可以对已添加的模型进行编辑或删除。

第四步,使用大模型。上述配置完成后,回到CherryStudio的聊天界面中,选择Ollama服务商和您已下载的模型,开始与本地 LLM 进行对话:

这样我们就实现了在本地部署LLM大模型,同时通过可视化界面与大模型进行交互。