链载Ai

标题: 六边形战士!免费使用阿里通义千问API接口,支持高速流式输出、无水印AI绘图、长文档解读、图像解析、多轮对话,零配置部署…… [打印本页]

作者: 链载Ai    时间: 昨天 10:19
标题: 六边形战士!免费使用阿里通义千问API接口,支持高速流式输出、无水印AI绘图、长文档解读、图像解析、多轮对话,零配置部署……


项目简介

qwen-free-api 是一个开源项目,提供与阿里通义千问大模型兼容的API接口。

该项目支持多种功能,包括高速流式输出、无水印AI绘图、长文档解读、图像解析以及多轮对话等。允许用户通过零配置部署,支持多路token,并能自动清理会话痕迹,以提高使用体验。

使用场景

  1. 对话补全:用户可以利用qwen-free-api进行自动文本生成,实现聊天机器人的对话补全功能。
  2. AI绘图:根据用户提供的描述,AI可以生成相应的图像。
  3. 文档解读:AI可以解析用户提供的文档内容,并给出解读。
  4. 图像解析:AI可以对用户提供的图像进行内容解析。
  5. 多轮对话:支持在对话中进行多轮交互,使对话更加自然和连贯。

使用方法

在线体验

提供了一个临时测试功能的链接:https://udify.app/chat/qOXzVl5kkvhQXM8r

接入准备

部署方法

提供了多种部署方式,包括Docker、Docker-compose、Render、Vercel、Zeabur和原生部署。

1. Docker 部署
dockerrun-it-d--init--nameqwen-free-api-p8000:8000-eTZ=Asia/Shanghaivinlic/qwen-free-api:latest
dockerlogs-fqwen-free-api
dockerrestartqwen-free-api
dockerstopqwen-free-api
2. Docker-compose 部署

使用以下docker-compose.yml文件:


services:
qwen-free-api:
container_name: qwen-free-api
image: vinlic/qwen-free-api:latest
restart: always
ports:
- "8000:8000"
environment:
- TZ=Asia/Shanghai
3. Render 部署
4. Vercel 部署
npmi-gvercel--registryhttp://registry.npmmirror.com
npmi-gvercel--registryhttp://registry.npmmirror.com
vercellogin
gitclonehttps://github.com/LLM-Red-Team/qwen-free-api
cdqwen-free-api
vercel--prod
5. 原生部署
npmi
npmi-gpm2
npmrunbuild
pm2startdist/index.js--name"qwen-free-api"
pm2logsqwen-free-api
pm2reloadqwen-free-api
pm2stopqwen-free-api

接口列表

目前支持与openai兼容的 /v1/chat/completions 接口,可自行使用与openai或其他兼容的客户端接入接口,或者使用 dify 等线上服务接入使用。

PS:项目推荐使用二次开发客户端如LobeChat或ChatGPT Web,以简化接入流程。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5