在Ubuntu上部署和使用deepseek-r1:1.5b

木头的喵喵拖孩

前言

如果已经安装了宝塔面板,那么可以直接使用宝塔面板的软件商店来安装 DeepSeek-R1。

下载 Ollama

Ollama 官网 下载 Ollama。

1
curl -fsSL https://ollama.com/install.sh | sh

下载过程很慢且可能会出现网络错误,可以尝试使用代理(参考使用 AWS EC2 配置 SSTap 服务)或者使用镜像源。

无法开机问题

Ollama 安装过程中会自动更新显卡驱动和其他一些配置,在显卡硬件版本过低的情况下,主机重启会出现无法开机的问题。
为了解决这个问题,需要做如下操作:

  1. 进入恢复模式
    开机后一直点击 shift 键,直到出现选择启动方式界面,选择带有(recovery)的启动方式

  2. 删除所有 NVIDIA 显卡驱动

    1
    apt purge nvidia-*
  3. 清理残留配置

    1
    apt autoremove
  4. 安装 ubuntu-drivers

    如果网卡也被 Ollama 影响而不能自启动,需要先临时启动网卡

    1
    2
    3
    4
    # 先查看网卡信息
    ip link show
    # 然后设置网卡为 up
    ip link set enpXsX up
    1
    install ubuntu-drivers-common
  5. 安装所有适配当前硬件的驱动

    1
    ubuntu-drivers autoinstall
  6. 安装 netplan

    1
    apt install netplan.io
  7. 检查 Netplan 配置

    1
    vim /etc/netplan/*.yaml

    为主网卡 enpXsX 启用 DHCP

    1
    2
    3
    4
    5
    network:
    version: 2
    ethernets:
    enpXsX:
    dhcp4: true
  8. 应用 netplan 配置

    1
    netplan apply
  9. 安装防火墙工具

    1
    2
    3
    4
    5
    6
    # 检查 ufw 状态
    ufw status

    # 如果没有安装 ufw,则需要安装
    apt update
    apt install ufw
  10. 重启

    1
    reboot

下载 AI 模型

这里下载的是 deepseek-r1:1.5b,如果想下载其他 AI 模型,请参考 Ollama Models

1
2
3
# 下载并运行 deepseek-r1:1.5b
# 运行成功后,ollama会开启一个命令行对话窗口,根据提示使用即可
ollama run deepseek-r1:1.5b

下载过程很慢且可能会出现网络错误,可以尝试使用代理(参考使用 AWS EC2 配置 SSTap 服务)或者使用镜像源。

开启 API

纯命令行模式不太美观,所以开启 ollama 的服务,使其通过 http 协议暴露 API 接口,然后通过接口进行对话。

最新版本 Ollama 在安装后会自动部署为自启动服务,如果没有自动部署为服务,参考 Ollama Linux 文档来手动部署为服务。

添加文件 /etc/systemd/system/ollama.service,内容如下

1
2
3
4
5
6
7
8
9
10
11
12
13
14
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=$PATH"

[Install]
WantedBy=default.target

然后重载系统服务

1
sudo systemctl daemon-reload

部署为服务后,通过以下命令来操作 Ollama

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
# 启动服务
systemctl start ollama.service

# 关闭服务
systemctl stop ollama.service

# 查看服务状态
systemctl status ollama.service

# 设置服务自启动
systemctl enable ollama.service

# 关闭服务自启动
systemctl disable ollama.service

使用 API

使用以下命令来测试 Ollama 是否开启服务成功

1
2
3
4
5
6
7
8
9
10
11
12
curl http://localhost:11434/api/generate -d '{
"model": "deepseek-r1:1.5b",
"prompt": "你好,请介绍一下量子计算",
"options": {
"temperature": 0.3, // 降低随机性(原0.7 → 0.3)
"num_ctx": 4096, // 扩大上下文窗口(原2048 → 4096)
"top_p": 0.5, // 新增:聚焦高概率词
"num_predict": -1, // 新增:允许最大长度输出
"repeat_penalty": 1.2, // 新增:抑制重复内容
"seed": 12345 // 新增:保持结果一致性
}
}'

参考

Ollama Models
Ollama docs

  • 标题: 在Ubuntu上部署和使用deepseek-r1:1.5b
  • 作者: 木头的喵喵拖孩
  • 创建于: 2025-02-25 16:09:19
  • 更新于: 2025-02-27 17:00:32
  • 链接: https://blog.xx-xx.top/2025/02/25/在Ubuntu上部署和使用deepseek-r1-1-5b/
  • 版权声明: 本文章采用 CC BY-NC-SA 4.0 进行许可。
此页目录
在Ubuntu上部署和使用deepseek-r1:1.5b