Windows 本地部署人工智能 DeepSeek 教程
Published in:2025-02-27 |

环境:Windows

第一步,安装 Ollama

下载 Ollama,官网 https://ollama.com/

下载完成后,直接运行安装程序 OllamaSetup.exe,会自动安装到 C 盘。无法自定义安装路径。

安装完成后打开命令行提示符,输入 ollama,显示帮助信息则安装完成。

第二步,下载 DeepSeek 模型

Ollama 官网 Models 一栏下点击 deepseek-r1 :


选择自己想要的模型

前面的 1.5b7b8b … … 这些是模型的参数规模,单位是 billion (十亿)。

后面的则是不同模型所占的硬盘大小。

我的设备是轻薄本,显卡型号为 NVIDIA GeForce MX350,显存为 10GB。设备性能不是很好,所以我选择的是 14b 参数的模型。(在我的设备上运行起来,思考速度略慢一些,不过在可接受范围内。)

打开命令行,运行命令 ollama run deepseek-r1:[参数规模],该命令会自动将指定参数规模的人工智能大模型下载到本地并运行:

运行时需要显卡的算力,确保显卡的性能足够模型的运行。(优先使用显卡的算力,如果显卡不支持,则使用 CPU 的算力。)


模型下载完成后,就可以在命令行和他进行互动了,问他一个愚公移山的问题,看他回答如何:

第三步,配置图形化界面

在命令行上和 deepseek 对话,他输出的内容是 markdown 格式的文本,看起来不是很友好。可以使用 Chatbox 连接 ollama 的进程,将 deepseek 的 markdown 格式的回答渲染成图形界面。

下载 Chatbox,官网 https://chatboxai.app/Free Download (for Windows)

运行下载的安装程序,安装完成后打开,选择本地的 API,下拉栏选择 OLLAMA API,API 域名会自动填充,如果下载了多个 deepseek 模型,可以选择其版本,最后点击保存:

然后就可以使用图形界面和 deepseek 进行对话了:(问他一个数学方面的问题)

他的回答是正确的!还给出了具体的思考过程。


OK,简单总结一下。把 deepseek-r1 模型下载到自己的电脑上运行,缺点是回答速度有点慢(跟设备性能有关);优点是不需要联网,完全运行在自己电脑,断网的时候也可以用。智能程度方面,我觉得还不错,可以写一些简单的算法,回答一些简单的数学问题,中英文翻译不在话下,可以拿来练英语。总体使用体验还不错,感兴趣的朋友可以尝试玩一下。

Prev:
通过环境变量实现多个 python 版本的自由切换以及 Conda 虚拟环境的使用教程
Next:
最长递增子序列问题(Longest Increasing Subsequence),动态规划法解决,贪心算法 + 二分查找优化