链载Ai

标题: 扣子,开源了! [打印本页]

作者: 链载Ai    时间: 前天 21:47
标题: 扣子,开源了!

夜,是不可能不熬的。

刚刚,扣子宣布开源,主要开源了两个核心项目:

1.Coze Studio(扣子开发平台)

2.Coze Loop(扣子罗盘)

GitHub地址:

https://github.com/coze-dev/coze-studio

https://github.com/coze-dev/cozeloop

Coze Studio是扣子最核心的产品,你可以通过拖拽节点,自由编排任意具有workflow的AI Agent。通过Coze Studio提供的可视化设计与编排工具,开发者可以零代码或低代码,快速打造和调试智能体、应用和工作流。

Coze Loop是一个面向开发者,专注于AI Agent开发与运维的管理平台。可以帮助开发者更高效地开发和运维AI Agen,比如提示词工程、Agent评测、上线后监控与调优等,提升Agent的运行效果和稳定性。

本次开源,采用极其宽松的Apache2.0协议开源。意味着,所有人都可以免费下载和商用。

安装环境,门槛超低,双核CPU+4G内存即可运行。基本上就是,是个电脑都能使用。

在Agent编排工具领域,Coze一直是独一档的存在。本次开源,可以看到字节Seed团队拥抱开源的决心。

任谁开源,都值得吼两嗓子,感谢扣子,感谢字节。以下,是开源版Coze的安装指南。

1.Coze Studio部署指南

环境要求:

部署步骤:

1)获取源码

#克隆代码gitclonehttps://github.com/coze-dev/coze-studio.git

2)配置模型

  1. 从模板目录复制doubao-seed-1.6模型的模版文件,并粘贴到配置文件目录。

cdcoze-studio#复制模型配置模版cpbackend/conf/model/template/model_template_ark_doubao-seed-1.6.yamlbackend/conf/model/ark_doubao-seed-1.6.yaml
  1. 在配置文件目录下,修改模版文件。

  1. 进入目录 backend/conf/model。打开复制后的文件ark_doubao-seed-1.6.yaml。

  2. 设置 id、meta.conn_config.api_key、meta.conn_config.model 字段,并保存文件。

3)部署并启动服务

首次部署并启动 Coze Studio 需要拉取镜像、构建本地镜像,可能耗时较久,请耐心等待。部署过程中,你会看到以下日志信息。如果看到提示 "Container coze-server Started",表示 Coze Studio 服务已成功启动。

#启动服务cddockercp.env.example.envdockercompose--profile'*'up-d

4)登录访问

启动服务后,通过浏览器访问 http://localhost:8888/ 即可打开 Coze Studio。其中 8888 为后端监听端口。 至此,你已成功部署 Coze Studio,可以根据页面提示注册账号、体验 Coze Studio 的各项功能与服务。

2.Coze Loop部署指南

1)准备工作

在参考本文安装 CozeLoop 开源版之前,确保您的软硬件环境满足以下要求:

2)安装 CozeLoop

步骤一:获取源码

执行以下命令,获取 CozeLoop 最新版本的源码。

#克隆代码gitclonehttps://github.com/coze-dev/cozeloop.git#进入cozeloop目录下cdcozeloop

步骤二:配置模型

正式安装 CozeLoop 开源版之前,你需要准备可选的模型,否则访问 CozeLoop 开源版时将无法选择模型来启动 Prompt 调试或评测。 此处以 OpenAI 和火山方舟模型为例,演示配置模型文件的操作步骤,你可以快速配置模型以便安装和测试 CozeLoop 开源版。对于 Llama 等其他模型,你可以参考模型配置文档填写配置文件。

  1. 进入目录 conf/default/app/runtime/。

  2. 编辑文件 model_config.yaml,修改 api_key 和 model 字段。 以下内容表示为 CozeLoop 开源版配置火山方舟的豆包模型、OpenAI 模型。 使用以下内容覆盖原文件,然后修改其中的 api_key 和 model,将其替换为你的 OpenAI 和火山方舟模型的配置参数。

models:-id:1name:"doubao"frame:"eino"protocol:"ark"protocol_config:api_key:"***"#火山方舟APIKey,获取方式可参考https://www.volcengine.com/docs/82379/1541594model:"***"#方舟模型ID,可参考https://www.volcengine.com/docs/82379/1330310param_config:param_schemas:-name:"temperature"label:"生成随机性"desc:"调高温度会使得模型的输出更多样性和创新性,反之,降低温度会使输出内容更加遵循指令要求但减少多样性。建议不要与“Topp”同时调整。"type:"float"min:"0"max:"1.0"default_val:"0.7"-name:"max_tokens"label:"最大回复长度"desc:"控制模型输出的Tokens长度上限。通常100Tokens约等于150个中文汉字。"type:"int"min:"1"max:"4096"default_val:"2048"-name:"top_p"label:"核采样概率"desc:"生成时选取累计概率达top_p的最小token集合,集合外token被排除,平衡多样性与合理性。"type:"float"#min:"0.001"max:"1.0"default_val:"0.7"-id:2name:"openapi"frame:"eino"protocol:"openai"protocol_config:api_key:"***"#OpenAIAPIKeymodel:"***"#OpenAI模型IDparam_config:param_schemas:-name:"temperature"label:"生成随机性"desc:"调高温度会使得模型的输出更多样性和创新性,反之,降低温度会使输出内容更加遵循指令要求但减少多样性。建议不要与“Topp”同时调整。"type:"float"min:"0"max:"1.0"default_val:"0.7"-name:"max_tokens"label:"最大回复长度"desc:"控制模型输出的Tokens长度上限。通常100Tokens约等于150个中文汉字。"type:"int"min:"1"max:"4096"default_val:"2048"-name:"top_p"label:"核采样概率"desc:"生成时选取累计概率达top_p的最小token集合,集合外token被排除,平衡多样性与合理性。"type:"float"#min:"0.001"max:"1.0"default_val:"0.7"
  1. 保存文件。

步骤三:启动服务

执行以下命令,使用 Docker Compose 快速部署 CozeLoop 开源版。

#启动服务,默认为开发模式dockercomposeup--build

首次启动需要拉取镜像、构建本地镜像,可能耗时较久,请耐心等待。部署过程中,你会看到以下日志信息。如果回显信息中”提示后端构建完成“,表示 CozeLoop 已成功启动。

步骤四:访问 CozeLoop 开源版

启动服务后,通过浏览器访问 http://localhost:8082 即可打开 CozeLoop 开源版。其中8082 为前端监听端口,8888 为后端监听端口。 至此,你已成功部署 CozeLoop 开源版,可以体验 CozeLoop 的各项功能与服务。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5