利用群晖docker部署实现AI功能

市面上有许多知名的人工智能大型模型,例如kimi、百度AI、智谱、千问等。本文主要介绍了如何部署Web服务以承接这些AI模型的API接口,并探讨了如何通过可视化工具来有效利用这些接口。

部署WEB服务

采用yidadaa/chatgpt-next-web,详细部署详见群晖NAS部署docker应用之ChatGPT 应用

docker-compose.yml

  • BASE_URL为one-api的ip:端口
  • OPENAI_API_KEY为one-api的令牌
本内容需要 登录 后才能查看

部署one-api

为了将所有大模型集中到一起,通过部署justong/one-api来实现API接口的统一。

  • 默认的用户名为root密码123456,首次登录会提醒你修改密码。

docker-compose.yml

此处内容需要 回复 后才能查看

部署kimi模型

该项目目前仅用于自用。

kimi的key获取方式:

本内容需要 登录 后才能查看

docker-compose.yml

此处内容需要 回复 后才能查看

部署智谱清言

该项目目前仅用于自用。

智谱清言的key获取方式:

本内容需要 登录 后才能查看

docker-compose.yml

此处内容需要 回复 后才能查看

配置one-api

点击令牌,选择添加一个令牌,随后复制我们的令牌。再转到我们搭建的NextChat项目,点击右下角的设置项选择自定义接口接口地址则是我们搭建的one-api服务地址,例如我这里就为http://ip:8080API key则是我们刚刚获取到的令牌

THE END
分享
二维码
打赏
海报
利用群晖docker部署实现AI功能
市面上有许多知名的人工智能大型模型,例如kimi、百度AI、智谱、千问等。本文主要介绍了如何部署Web服务以承接这些AI模型的API接口,并探讨了如何通过可视化工……
<<上一篇
下一篇>>