小米音箱接入 DeepSeek/OpenAI:软路由 Docker 部署教程
方案概述
通过在软路由或 NAS 上部署开源 Docker 项目,可以将 DeepSeek、OpenAI 或 Gemini 接入小米音箱,让小爱同学从简单的语音助手变成真正能聊天、能答题的 AI 助手。成本极低,效果远超原生体验。
前置条件
| 项目 | 要求 | 备注 |
|---|---|---|
| 硬件 | 软路由 / NAS / 24h 运行的电脑 | 需支持 Docker |
| 支持模型 | DeepSeek / OpenAI / Gemini | 推荐 DeepSeek,性价比最高 |
| SSH 工具 | FinalShell 或类似工具 | 用于远程管理 |
| 关键参数 | 小米 ID / PassToken / Cookie | 通过浏览器开发者工具获取 |
第一步:SSH 连接软路由
使用 FinalShell 等 SSH 工具连接到你的软路由或 NAS。需要填入设备的局域网 IP、用户名和密码。

连接成功后确认 Docker 环境已就绪,可以通过 docker --version 验证。
第二步:创建配置文件
在 Docker 目录下新建项目文件夹,创建 docker-compose.yml 和环境变量配置文件。

配置文件中需要填入三类关键信息:小米账户凭证、AI 模型 API Key、以及音箱设备标识。
第三步:获取小米账户 Token
这一步是整个流程的核心。需要在浏览器中登录小米账户,通过开发者工具(F12)获取 Cookie 中的关键字段。

需要提取的参数包括小米 ID、PassToken 等。参数配置错误会导致音箱无法连接 AI 服务,务必仔细核对。
第四步:配置 AI 模型接口
将 DeepSeek 等模型的 API 地址和 Key 填入配置文件。建议选择非思考模式(non-reasoning)的模型,响应速度更快,更适合语音交互场景。

配置完成后执行 docker-compose up -d 启动容器,音箱即可开始使用 AI 能力。
实际效果
接入 DeepSeek 后,音箱在处理复杂问题时的表现远超原生小爱同学 — 能进行逻辑推理、知识问答、甚至辅导小孩作业。响应速度取决于所选模型和网络环境,DeepSeek 在国内网络下延迟最低。
需要注意的问题
技术门槛不低。 需要 Linux 基础、Docker 操作经验,以及从浏览器提取 Token 的能力。纯小白用户可能会卡在配置环节。
设备必须常开。 软路由或 NAS 关机后音箱的 AI 功能就失效了,恢复原生小爱。
国际模型需要代理。 使用 OpenAI 或 Gemini 需要确保 Docker 容器能访问外网,可以通过 魔戒VPN 客户端 配置路由器级代理。DeepSeek 在国内可直连,无需额外网络配置。
隐私考量。 方案需要将小米账户的 Token 配置到第三方脚本中,对隐私敏感的用户需要自行评估风险。
适合什么人
有软路由或 NAS、具备基础 Docker 经验、对小爱同学原生能力不满意的极客用户。家里有小孩需要 AI 答疑的场景特别实用。