一人公司系列教程:用 AI 工具链从零搭建个人技术基建
很多人在问:能不能把 AI 能力完全跑在自己机器上,不依赖云服务?OPC 这个开源项目给出了一个完整答案,手把手教你用飞牛 OS + CUDA + Harbor 搭一套本地 AI 工作站。
Reading System
很多人在问:能不能把 AI 能力完全跑在自己机器上,不依赖云服务?OPC 这个开源项目给出了一个完整答案,手把手教你用飞牛 OS + CUDA + Harbor 搭一套本地 AI 工作站。
很多个人开发者和 AI 爱好者都在思考一个问题:能不能把 AI 能力完全跑在自己的服务器上,不依赖云服务,不担心数据隐私,同时还能拥有一套高效的工具链?
OPC(一人公司系列教程) 就是回答这个问题的一个开源教程项目。
OPC 是 B 站 UP 主 小天fotos(GitHub @xiaotianfotos)发起的一个系列教程项目,核心理念是:用 AI 工具链从零构建个人技术基建,打造"一人公司"式的超级智能中枢。
简单来说:手把手教你在自己的机器上搭一套完整的本地 AI 环境,让 AI 能力真正掌握在自己手里。
目前项目已在 GitHub 开源(Apache 2.0 协议),持续更新中。
视频课程,目标是帮助读者建立对 AI 模型生态的完整认知。
内容覆盖:
这期是认知基础,为后续的部署实践铺路。
这是目前最核心的实战章节,在 飞牛 OS(fnOS) 上搭建完整的本地 AI 环境。飞牛 OS 是一款基于 Debian 12 的私有云 NAS 系统,适合个人开发者搭建自己的服务端环境。
Claude Code — 本地 AI 代码助手
Harbor — 模型管理工具
依次检查所有组件是否正常工作:
通过 Harbor 一键拉起模型服务:
# Gemma-4-E4B(推荐配置)
harbor config set llamacpp.model.specifier "--model-url https://modelscope.cn/models/unsloth/gemma-4-E4B-it-GGUF/resolve/master/gemma-4-E4B-it-Q4_K_M.gguf" && harbor up llamacpp
# Qwen3-8B
harbor config set llamacpp.model.specifier "--model-url https://modelscope.cn/models/Qwen/Qwen3-8B-GGUF/resolve/master/qwen3-8b-q4_k_m.gguf" && harbor up llamacpp用 curl 验证推理服务是否正常运行:
curl http://localhost:8080/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{"model":"gemma-4-E4B-it-Q4_K_M","messages":[{"role":"user","content":"你好"}]}'完成整个教程后,你将拥有:
OPC 这个项目的定位很清晰:不是教你调用云端 API,而是手把手教你把 AI 能力部署在自己的基础设施上。它选择飞牛 OS 作为部署目标,选择 CUDA + Docker + Harbor 作为技术栈,选择 Claude Code 作为 AI 辅助开发工具,整套链路串起来就是一个可以在家运行、不依赖任何外部服务的个人 AI 工作站。
项目地址:https://github.com/xiaotianfotos/OPC