deepseek本地部署硬件要求?新手该如何部署教程!

张大嘴2025-02-11 18:12AI与自动化工具827

 

「DeepSeek」是免费、开源、支持本地部署,不过很多小伙伴不知道自己的电脑能不能跑得动「DeepSeek」模型,目前最新的 DeepSeek-R1 提供了多个蒸馏后的参数模型,包括有:1.5b、7b、8b、14b、32b、70b,以及满血版 671b 大模型。接下来给大家说说deepseek的硬件要求以及如何部署。

一:DeepSeek本地部署的硬件要求

如下Windows 配置

最低要求:

  • • NVIDIA GTX 1650 4GB 或 AMD RX 5500 4GB

  • • 16GB 内存

  • • 50GB 存储空间

推荐配置:

  • • NVIDIA RTX 3060 12GB 或AMD RX 6700 10GB

  • • 32GB 内存

  • • 100GB NVMe SSD

Mac 配置

最低要求:

  • • M2 MacBook Air (8GB 内存)

推荐配置:

  • • M2/M3 MacBook Pro (16GB 内存)

  • • M2 Max/Ultra Mac Studio (64GB 内存)

二、deepseek本地部署方法

Ollama 安装与配置

1.1 跨平台安装指南Ollama 作为本地运行大模型的利器,支持三大主流操作系统:

# macOS一键安装
Windows用户
访问官网 https://ollama.com/download 下载安装包

Linux安装(Ubuntu/Debian为例)
curl -fsSL https://ollama.com/install.sh | sudo bash
sudo usermod -aG ollama $USER  # 添加用户权限
sudo systemctl start ollama    # 启动服务

1.2 服务验证


ollama -v

# 输出ollama version is 0.5.7

出现上述则表示安装成功,可浏览器访问http://localhost:11434/验证

Deepseek 模型部署

2.1 模型下载与加载

以 deepseek r1 模型为例:

2.1.1:访问https://ollama.com/library/deepseek-r1,默认为 7b 模型,如需其他模型,可以在当前页搜索所需模型

2.1.2:模型详情页复制安装命令ollama run deepseek-r1 安

2.1.3:装完成后在终端执行:

ollama run deepseek-r1
# 执行后
pulling manifest
pulling 96c415656d37... 100% ▕██████████████▏ 4.7 GB
pulling 369ca498f347... 100% ▕██████████████▏ 387 B
pulling 6e4c38e1172f... 100% ▕██████████████▏ 1.1 KB
pulling f4d24e9138dd... 100% ▕██████████████▏ 148 B
pulling 40fb844194b2... 100% ▕██████████████▏ 487 B
verifying sha256 digest
writing manifest
success
> > > Send a message (/? for help)
> > > `
> > > 当看到上述提示,即可开始模型对话。

mac 后台标识以及win 后台标识

mac 后台标识以及win 后台标

2.2 模型验证测试

运行交互式对话测试:

请用Python写一个快速排序算法

当看到完整代码输出,说明模型已成功加载。

硬件要求建议:

  • • 最低配置:16GB 内存 + 8GB 显存

  • • 推荐配置:32GB 内存 + 16GB 显存(RTX 3060 级别)

三、安装交互 ui

3.1 chatbox

3.1.1:下载地址chatboxai.app

3.1.2:配置本地模型进

3.1.3:入设置页面

交互 ui

选择 ollama api (本地部署)

配置本机地址,默认http://127.0.0.1:11434

ollama api (本地部署)ui


 


版权声明:本站文章内容由用户自发贡献,该文观点仅代表作者本人除特别声明外均采用 CC BY-NC-SA 3.0 许可协议。转载请注明出处!

本文链接:https://dcyzq.com/post/3086.html

分享给朋友: