项目简介qwen-free-api 是一个开源项目,提供与阿里通义千问大模型兼容的API接口。 该项目支持多种功能,包括高速流式输出、无水印AI绘图、长文档解读、图像解析以及多轮对话等。允许用户通过零配置部署,支持多路token,并能自动清理会话痕迹,以提高使用体验。  使用场景- 对话补全:用户可以利用
qwen-free-api进行自动文本生成,实现聊天机器人的对话补全功能。 - AI绘图:根据用户提供的描述,AI可以生成相应的图像。
- 文档解读:AI可以解析用户提供的文档内容,并给出解读。
- 多轮对话:支持在对话中进行多轮交互,使对话更加自然和连贯。
使用方法在线体验提供了一个临时测试功能的链接:https://udify.app/chat/qOXzVl5kkvhQXM8r。 接入准备- 用户从通义千问(
https://tongyi.aliyun.com/qianwen)登录获取login_tongyi_ticket。 - 使用开发者工具从Cookies中找到
login_tongyi_ticket的值,这将作为后续请求的Bearer Token。
部署方法提供了多种部署方式,包括Docker、Docker-compose、Render、Vercel、Zeabur和原生部署。 1. Docker 部署- 准备一台具有公网IP的服务器,并将8000端口开放。
dockerrun-it-d--init--nameqwen-free-api-p8000:8000-eTZ=Asia/Shanghaivinlic/qwen-free-api:latest
dockerlogs-fqwen-free-api dockerrestartqwen-free-api dockerstopqwen-free-api
2. Docker-compose 部署使用以下docker-compose.yml文件: services: qwen-free-api: container_name: qwen-free-api image: vinlic/qwen-free-api:latest restart: always ports: - "8000:8000" environment: - TZ=Asia/Shanghai
3. Render 部署- 构建你的 Web Service(New+ -> Build and deploy from a Git repository -> Connect你fork的项目 -> 选择部署区域 -> 选择实例类型为Free -> Create Web Service)。
- 等待构建完成后,复制分配的域名并拼接URL访问即可。
4. Vercel 部署npmi-gvercel--registryhttp://registry.npmmirror.com
npmi-gvercel--registryhttp://registry.npmmirror.com vercellogin gitclonehttps://github.com/LLM-Red-Team/qwen-free-api cdqwen-free-api vercel--prod
5. 原生部署npmi
npmi-gpm2
npmrunbuild
pm2startdist/index.js--name"qwen-free-api"
pm2logsqwen-free-api pm2reloadqwen-free-api pm2stopqwen-free-api
接口列表- 对话补全:兼容openai的
/chat/completions接口,允许发送对话消息并获取补全结果。 - AI绘图:兼容openai的
/images/generations接口,根据描述生成图像。 - 图像解析:提供图像URL或BASE64编码,获取AI对图像内容的解析。
- Token存活检测:检测提供的
login_tongyi_ticket是否有效。
目前支持与openai兼容的 /v1/chat/completions 接口,可自行使用与openai或其他兼容的客户端接入接口,或者使用 dify 等线上服务接入使用。 PS:项目推荐使用二次开发客户端如LobeChat或ChatGPT Web,以简化接入流程。 |