链载Ai

标题: 55.7K Star!多种强大语言模型的集合,提供Python客户端API与Docker部署方式,并支持本地推理…… [打印本页]

作者: 链载Ai    时间: 昨天 09:39
标题: 55.7K Star!多种强大语言模型的集合,提供Python客户端API与Docker部署方式,并支持本地推理……

https://github.com/xtekky/gpt4free

点击【阅读原文】直接跳转Github项目页面

项目简介

gpt4free 收集了一系列功能强大的语言模型,提供了一个Python客户端API,类似于OpenAI的Python库,用于与各种大型语言模型进行交互,包括但不限于GPT-3.5 Turbo和Gemini等模型。

g4f主要用于演示如何构建支持多种语言模型接口的API包,目前支持文本与图像生成。

项目还提供了一个基于Web UI的图形界面,可以在本地操作系统窗口中打开,支持登录OpenAI Chat,上传图片以及流式文本生成等功能。

使用方法

用户可以通过多种方式安装和使用,包括以下三种:

Docker快速启动

首先需要下载并安装Docker。然后,拉取最新的g4f镜像并运行容器:

docker pull hlohaus789/g4f
docker run -p 8080:8080 -p 1337:1337 -p 7900:7900 --shm-size="2g" -v ${PWD}/hardir:/app/hardir hlohaus789/g4f:latest

运行后,你可以在本地浏览器中通过http://localhost:8080/chat/访问客户端。

通过g4f客户端,你可以生成文本和图像内容。

Python使用

pip install -U g4f[all]
from g4f.client import Client
client = Client()
response = client.chat.completions.create(
    model="gpt-3.5-turbo",
    messages=[{"role": "user", "content": "Hello"}],
    # 其他参数...
)
print(response.choices[0].message.content)
from g4f.client import Client
client = Client()
response = client.images.generate(
    model="gemini",
    prompt="a white siamese cat",
    # 其他参数...
)
image_url = response.data[0].url

源码安装

可以参考项目的文档来了解如何从Git仓库加载项目并安装相关依赖。


注:本文内容仅供参考,具体项目特性请参照官方 GitHub 页面的最新说明。

欢迎关注&点赞&在看,感谢阅读~






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5