开源大模型网关:One API 实现主流 AI 模型 API 的统一管理与分发

一、简介

  • One API是一个使用go语言开发的大语言模型 API 管理与分发系统
  • 支持Docker一键快速部署,且资源占用小,高性能
  • 开箱支持多平台大模型快速接入,包括OpenAI、Gemini、xAI、Grop、Anthropic Claude、Ollama、Deepseek、智谱AI、豆包、文心一言等等
  • 功能强大,支持多机部署、stream 模式、模型负载均衡、令牌用户等资源管理等等
  • 开源地址参考:https://github.com/songquanpeng/one-api,工作原理图参考:

二、安装

1. 安装方式一:在主机上使用Docker安装

  • 新建docker-compose.yml配置文件,内容如下
    version: '3'
    services:
      one-api:
        image: justsong/one-api:latest
        privileged: true
        container_name: one-api
        restart: always
        command: --log-dir /app/logs
        ports:
          - "3000:3000"
        volumes:
          - ./data:/data
          - ./logs:/app/logs
        environment:
          - SESSION_SECRET=HSFGJFSFMNWVSDV  # 修改为随机字符串
          - TZ=Asia/Shanghai
  • 使用docker-compose命令启动,输入如下命令:
    docker-compose up -d

2. 安装方式二:使用免费的Claw Cloud容器部署

  • 如何免费使用Claw Cloud参考:https://blog.luler.top/d/29

  • 新增一个应用,选择配置如下:

  • 启动运行,部署成功后即可访问分配的公网地址使用了

三、使用示例

1. 在One API后台管理模型渠道

  • 这里以Claw Cloud部署分配的地址为例,访问:https://bmyufvujccew.ap-northeast-1.clawcloudrun.com/,默认登录账号密码为:root/123456

  • 添加一个模型渠道,这里以硅基流动为例

  • 可对接入的模型渠道进行管理、测试可用性

2. 管理授权令牌

  • 新增One API模型授权使用令牌

3. 在客户端使用One API接入的模型

  • 统一所有模型,提供 Openai 兼容接口

  • 在Cherry Studio接入One API示例,添加新的模型服务,配置如下

  • 配置成功,就可以正常使用了

4. One API还有很多用法(自行探索)

  • 多模型供应商负载均衡
  • 模型更名、映射转换
  • 指定使用哪个模型渠道(在令牌后面增加”-渠道ID”即可)
  • 模型调用失败重试
  • 等等等

四、总结

  • 使用One API可以帮助统一的编程和管理接口,把所有可用渠道集中到One API管理,统一对外提供Openai兼容接口和授权令牌
  • 能够Docker快速部署,go语言开发性能有保证,且资源占用少,可以迅速接入使用
© 版权声明
THE END
喜欢就支持一下吧
点赞8 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容