1. 涨姿势首页
  2. 世界观

本地部署DeepSeek-R1模型示例

1.1 DeepSeek 用户快速增长,官方服务器拥挤严重

自 2025 年 1 月 DeepSeek R1 模型上线以来,引发了大量的关注和讨论,1 月最后一周用户数呈现爆发式增长,仅仅 7 天即完成了 1 亿用户增长,成为超越 ChatGPT 的另一现象级产品。特别是春节假期期间,DeepSeek 由于其低成本、高性能、开源的特点快速出圈,并在春节后迅速引发了各行业的加速部署,国产 AI 进程快速推进。

与此同时,DeepSeek 相关板块在春节后出现了大幅上涨,Wind DeepSeek 指数在春节后的一周半时间累计涨幅达 48.32%,同时也带动了上下游产业链公司的大幅上涨。

我们认为,DeepSeek 对各行业的影响才刚刚开始。对大型企业而言,由于数据敏感性以及需要微调模型等原因,普遍会进行私有化部署。就证券基金行业来看,华安基金、汇添富基金等多家头部公募基金公司,以及中信建投、国泰君安等多家头部证券公司,都已完成了 DeepSeek 私有化部署,将赋能数字化转型与业务效率提升。

1.2 本地部署 DeepSeek-R1 模型示例

高速增长的用户使得 DeepSeek 官网访问量激增,同时由于其自身算力限制,近期 DeepSeek 官网及 APP 频繁出现服务繁忙的提示。

由于 DeepSeek 系列模型已开源并附有详细的文档说明,理论上任何人都可以进行私有化部署。然而由于高性能版本的 DeepSeek 模型对本地算力的要求极高,对普通用户而言难以实现高配版本模型落地。对于私密性要求较高且模型性能要求没那么高的用户,可以尝试通过如下步骤来进行私有化部署低配版模型:

1)准备工作:安装 Ollama

首先需要根据个人电脑来选择合适的 Ollama 版本,通过 Ollama 官网直接下载对应的版本并安装,安装完成之后启动运行 Ollama。

2)安装部署:安装 DeepSeek R1

回到 Ollama 官网,找到 DeepSeek-R1 模型,打开之后即可看到 DeepSeek-R1 模型的 1.5b-671b 不同量级的版本,此时需要特别注意要部署的电脑配置,如果配置较为普通,建议选择 1.5b 或 7B 版本。
打开电脑命令行,输入 Ollama 提供的对应模型的部署命令,运行并等待即可,待全部运行结束之后即已完成部署。部署完成的 DeepSeek R1 模型以命令行的方式运行,用户可以直接进行文字交互。

以上步骤部署的 DeepSeek 模型无法进行联网测试,且命令行交互方式不够友好,用户可以通过多种方式为其安装图形用户界面。此处我们以 Page Assist 为例,Page Assist 是一款开源的浏览器扩展程序,旨在通过本地 AI 模型提供直观的交互界面,使用户能够在任何网页上与 AI 模型进行对话和交互,支持 Chrome、Edge、Firefox 等主流浏览器。以 Firefox 为例,直接在浏览器扩展窗口搜索 Page Assist,添加扩展即可。添加完成之后我们打开 Firefox 浏览器扩展标签,即可自动关联到我们本地的 Ollama,选择嵌入本地模型,选择部署的 DeepSeek-R1,即可在浏览器内进行交互,同时也可进行联网搜索。

1.3 相较而言云厂商提供的高配版 DeepSeek 模型性价比更高

本地部署模型固然有非常多的好处,但其对资源的消耗非常明显,特别是参数相对较大的模型,需要专业级显卡支持,如中等模型 32b,微调显存需求达到 128-160GB,可能需要两块 A100 显卡搭配才能满足,对于普通用户来说本地部署的意义并不大。

此外,随着 DeepSeek 关注度的不断提升,国内云厂商如阿里云、百度智能云、腾讯云、硅基流动与华为云等都迅速接入了 DeepSeek 全系列模型。对于普通个人用户,在 DeepSeek 算力大幅提升之前,仍然有非常多的途径来使用高配版的 DeepSeek R1 模型。

来源:春晓量化

如若转载,请注明出处:https://www.zhangzs.com/520768.html

发表评论

电子邮件地址不会被公开。 必填项已用*标注

QR code
QR code