AIClient-2-API:一个开源工具帮你把客户端 AI 变成标准 API
如果你用过 Gemini CLI、Kiro、Qwen Code 这些客户端 AI,肯定会遇到一个尴尬的情况:它们虽然免费好用,但只能在自己客户端里调用,想把它们接进自己的应用或者工具里,简直难如登天。AIClient-2-API 就是为了解决这个痛点而生的——它把这些客户端专用的大模型请求模拟并转换成了标准 OpenAI 兼容接口,任何支持 OpenAI API 的应用都能直接调用。
Reading System
如果你用过 Gemini CLI、Kiro、Qwen Code 这些客户端 AI,肯定会遇到一个尴尬的情况:它们虽然免费好用,但只能在自己客户端里调用,想把它们接进自己的应用或者工具里,简直难如登天。AIClient-2-API 就是为了解决这个痛点而生的——它把这些客户端专用的大模型请求模拟并转换成了标准 OpenAI 兼容接口,任何支持 OpenAI API 的应用都能直接调用。
如果你用过 Gemini CLI、Kiro、Qwen Code 这些客户端 AI,肯定会遇到一个尴尬的情况:它们虽然免费好用,但只能在自己客户端里调用,想把它们接进自己的应用或者工具里,简直难如登天。
AIClient-2-API 就是为了解决这个痛点而生的——它把这些客户端专用的大模型请求模拟并转换成了标准 OpenAI 兼容接口,任何支持 OpenAI API 的应用都能直接调用。
简单来说,AIClient-2-API 是一个 API 代理服务,它的核心理念是:打破客户端限制,让原本只能在特定客户端使用的大模型变成通用 API。
目前它支持的模型包括:
只需要按照文档配置一次,就能通过标准 OpenAI 兼容接口访问这些模型。Cherry-Studio、NextChat、Cline 这些工具都能直接使用,不需要任何修改。
这是我觉得最实用的功能——内置账号池管理,支持多账号轮询、自动故障转移、配置降级策略,官方宣称 99.9% 的服务可用性。对于需要稳定调用的场景来说,这个功能简直是救星。
项目还提供了一个可视化的 Web 管理界面,可以实时配置、监控健康状态、查看请求日志。默认密码是 admin123,登录后可以自行修改。
最推荐的方式是用 Docker 一键部署:
docker run -d -p 3000:3000 -p 8085-8086:8085-8086 -p 1455:1455 -p 19876-19880:19876-19880 --restart=always -v "your_path:/app/configs" --name aiclient2api justlikemaki/aiclient-2-api启动后访问 http://localhost:3000 就能进入管理后台。
如果是本地开发,直接运行:
npm install
npm startAIClient-2-API 目前在 GitHub 上已经有 5511 颗星、827 个 Fork,许可证是 GPL-3.0。这个项目解决的问题非常实际——很多客户端 AI 虽然免费好用,但缺乏 API 接口,导致很难集成到自己的项目里。AIClient-2-API 完美填补了这个空白。
当然,需要提醒的是:免费的东西总有风险,账号可能被封、API 可能失效,且用且珍惜。正式项目还是建议用官方 API 服务。
如果你对这个方向感兴趣,不妨去 GitHub 看看官方文档,写得挺详细的。
项目地址:https://github.com/justlovemaki/AIClient-2-API