Jump to content
Main menu
Main menu
move to sidebar
hide
Navigation
Main page
Recent changes
Random page
freem
Search
Search
Appearance
Create account
Log in
Personal tools
Create account
Log in
Pages for logged out editors
learn more
Contributions
Talk
Editing
DeepSeek R1
(section)
Add languages
Page
Discussion
English
Read
Edit
Edit source
View history
Tools
Tools
move to sidebar
hide
Actions
Read
Edit
Edit source
View history
General
What links here
Related changes
Special pages
Page information
Appearance
move to sidebar
hide
Warning:
You are not logged in. Your IP address will be publicly visible if you make any edits. If you
log in
or
create an account
, your edits will be attributed to your username, along with other benefits.
Anti-spam check. Do
not
fill this in!
== 环境安装与配置 == ''(本节将重点介绍在个人电脑上部署 DeepSeek R1 蒸馏模型的步骤,以及所需的软硬件环境要求。)'' '''1. 系统与硬件要求:在考虑本地部署前,先评估一下您的设备。对于小参数量的模型(如1.5B、7B等),普通 PC 或笔记本即可运行,CPU 推理虽较慢但可行,有一块2GB以上显存的独立显卡则更佳 (必看:DeepSeek-R1本地部署!超详细教程~ - 雨梦山人 - 博客园)。随着模型参数增大(14B、32B、70B),显存需求逐步升高:例如14B模型建议有至少10GB显存,70B模型则需40GB左右显存才能流畅运行 (deepseek-r1:1.5b)。如果您希望挑战完整的DeepSeek-R1(671B参数),则需要多机多卡的服务器集群'''支持——官方测试指出使用 BF16 精度权重推理需至少4台搭载8×64GB显存的高端服务器 (DeepSeek-R1-模型库-ModelZoo-昇腾社区)(这超出了个人用户范畴)。总之,小白用户一般选择蒸馏的小模型版本在单机运行即可。操作系统方面,Windows 10/11、Ubuntu Linux 20.04+、macOS 等均支持部署方案。 <nowiki>**</nowiki>2. 安装 Ollama 工具:**为了简化本地部署流程,我们采用社区推荐的 '''Ollama''' 工具。Ollama 是一个用于本地管理和运行大型语言模型的开源框架,支持跨平台安装 (必看:DeepSeek-R1本地部署!超详细教程~ - 雨梦山人 - 博客园)。它可以帮我们自动下载模型、加载推理引擎,并提供统一的命令界面,非常适合小白使用。请按照以下步骤安装: * 前往 Ollama 官方网站 下载适合您操作系统的安装包(Windows/Mac/Linux 均提供)。运行安装程序完成安装。'''Windows 用户'''请尽量将其安装在系统盘默认路径,以免出现环境变量配置问题 (必看:DeepSeek-R1本地部署!超详细教程~ - 雨梦山人 - 博客园)。安装完成后,可在命令行中输入 <code>ollama version</code> 来验证是否安装成功。 * (Windows 用户特别提示:安装后可在“开始”菜单找到 Ollama 图标。双击图标会启动 Ollama 后台服务,但'''不会'''直接打开聊天界面。您仍需通过命令行与模型交互,这一点会在后续步骤说明 (必看:DeepSeek-R1本地部署!超详细教程~ - 雨梦山人 - 博客园)。) <nowiki>**</nowiki>3. 下载 DeepSeek R1 模型权重:**Ollama 提供了一个模型仓库,其中就包含了 DeepSeek R1 各个参数版本的模型。我们可以通过一条简单的命令来获取模型。例如,如果想安装 '''1.5B版本'''的模型,在终端/命令提示符中运行: <code>ollama pull deepseek-r1:1.5b</code> 上述命令将自动从 Ollama 库中下载 DeepSeek-R1 1.5b 模型权重并缓存到本地(首次运行<code>ollama run</code>时也会触发下载)。您也可以在 Ollama 官网上的 Models 页面找到 ''deepseek-r1'' 条目,选择对应版本并复制提供的命令执行 (必看:DeepSeek-R1本地部署!超详细教程~ - 雨梦山人 - 博客园)。不同版本对应的命令标签如下: * <code>deepseek-r1:1.5b</code> (约1.5B参数,权重文件≈1.1GB (deepseek-r1:1.5b)) * <code>deepseek-r1:7b</code> (≈7B参数,≈4.7GB) * <code>deepseek-r1:14b</code> (≈14B参数,≈9GB) * <code>deepseek-r1:32b</code> (≈32B参数,≈20GB) * <code>deepseek-r1:70b</code> (≈70B参数,≈43GB) * <code>deepseek-r1:671b</code> (完整版671B参数,≈404GB,需特殊硬件,不建议小白尝试) 根据您电脑的配置选择合适的模型规模。**提示:**初次下载可能需要一定时间,请耐心等待。下载过程中如果速度异常变慢或中断,可尝试重启终端重新执行命令 (必看:DeepSeek-R1本地部署!超详细教程~ - 雨梦山人 - 博客园)。模型文件下载完毕后,您已在本地成功安装了 DeepSeek R1!(无需手动解压或配置路径,Ollama 会自动索引已下载的模型) <nowiki>**</nowiki>4. 配置运行环境:**一般情况下,安装好 Ollama 并下载模型后,无需额外配置即可运行模型推理。但如果您希望使用Web界面或进行更高级的操作,可能需要安装Docker和相关前端: * ''(可选)安装 Docker:'' 若计划使用图形界面的 WebUI,与 Ollama 搭配通常需要 Docker 支持。到 Docker 官网 下载适用于您系统的 Docker Desktop 并安装 (必看:DeepSeek-R1本地部署!超详细教程~ - 雨梦山人 - 博客园)。安装后重启电脑,并确保 Docker 处于启动状态(系统托盘出现鲸鱼图标)。 * ''(可选)安装 Open-WebUI:'' 这是一个流行的本地模型 Web 界面,可连接 Ollama 调用模型。访问 OpenWebUI 官网,按照指南获取并运行 OpenWebUI 容器 (必看:DeepSeek-R1本地部署!超详细教程~ - 雨梦山人 - 博客园)。简而言之,在安装好 Docker 后,执行其提供的一键命令即可启动服务 (必看:DeepSeek-R1本地部署!超详细教程~ - 雨梦山人 - 博客园)。启动成功后,您可以在浏览器中访问本地提供的界面,与模型以聊天形式互动 (必看:DeepSeek-R1本地部署!超详细教程~ - 雨梦山人 - 博客园)。不过对于不熟悉这方面操作的小白来说,使用 WebUI 纯属锦上添花,不是必须步骤 (必看:DeepSeek-R1本地部署!超详细教程~ - 雨梦山人 - 博客园)。您完全可以跳过这两步,直接通过命令行与模型交互。 <nowiki>**</nowiki>5. 云端部署选项:**如果您的本地硬件无法满足需求,DeepSeek R1 也支持便捷的云端部署。AWS 已将 R1 模型纳入其 Amazon Bedrock 市场和 SageMaker JumpStart,中小团队可以通过几次点击在云端创建 R1 模型的托管端点 (DeepSeek-R1 模型现已在 AWS 上可用 | 亚马逊AWS官方博客) (DeepSeek-R1 模型现已在 AWS 上可用 | 亚马逊AWS官方博客)。此外,使用 AWS 的 Trn1 专用实例也可以高效地部署 DeepSeek R1 或其蒸馏模型 (DeepSeek-R1 模型现已在 AWS 上可用 | 亚马逊AWS官方博客)。对于国内用户,华为昇腾社区的 ModelZoo 也提供了 R1 在 Atlas 硬件上的部署教程 (DeepSeek-R1-模型库-ModelZoo-昇腾社区)。简言之,如果本地环境受限,您可以考虑租用云服务器或平台来运行 R1。但出于成本考虑,大部分小白用户更倾向于先用小模型本地跑通,有进一步需求再迁移云端。 完成上述安装和配置后,您就拥有了运行 DeepSeek R1 模型所需的环境。接下来,我们介绍如何实际调用模型来完成推理任务,包括基本的使用方法和命令示例。
Summary:
Please note that all contributions to freem are considered to be released under the Creative Commons Attribution-ShareAlike 4.0 (see
Freem:Copyrights
for details). If you do not want your writing to be edited mercilessly and redistributed at will, then do not submit it here.
You are also promising us that you wrote this yourself, or copied it from a public domain or similar free resource.
Do not submit copyrighted work without permission!
Cancel
Editing help
(opens in new window)