release-0.1分支。应用:游戏、基于LLM的智能体的社会行为研究等。最新消息
gitclonehttps://github.com/OpenBMB/AgentVerse.git--depth1cdAgentVersepipinstall-e.
如果您想在本地使用诸如LLaMA之类的模型,您还需要安装一些其他依赖:
pipinstall-rrequirements_local.txt
您也可以通过pip进行安装
pipinstall-Uagentverse
您需要按以下方式导出您的OpenAI API密钥:
#导出您的OpenAIAPI密钥exportOPENAI_API_KEY="your_api_key_here"
如果您想使用Azure OpenAI服务,请按以下方式导出您的Azure OpenAI密钥和OpenAI API基础地址:
exportAZURE_OPENAI_API_KEY="your_api_key_here"exportAZURE_OPENAI_API_BASE="your_api_base_here"
agentverseagentssimulation_agentenvironmentssimulation_env
您可以创建我们提供的多智能体环境。以教室场景为例,在此场景中,有九个智能体,一个扮演教授的角色,其他八个作为学生。
agentverse-simulation--tasksimulation/nlp_classroom_9players
我们还为此环境提供了一个本地网站演示。您可以通过以下命令启动它:
agentverse-simulation-gui--tasksimulation/nlp_classroom_9players
成功启动本地服务器后,您可以访问 http://127.0.0.1:7860/ 来查看教室环境。
如果您想运行带工具的仿真案例(例如,simulation/nlp_classroom_3players_withtool),您需要按以下方式安装BMTools:
gitclonegit+https://github.com/OpenBMB/BMTools.gitcdBMToolspipinstall-rrequirements.txtpythonsetup.pydevelop
这是可选的。如果您不安装BMTools,不带工具的仿真案例仍可以正常运行。
-agentverse-agents-simulation_env-environments-tasksolving_env
要运行我们论文[2]中提出的任务解决环境的实验,您可以使用以下命令:
运行基于AgentVerse的基准数据集,您可以尝试
#使用gpt-3.5-turbo运行Humaneval基准(配置文件`agentverse/tasks/tasksolving/humaneval/gpt-3.5/config.yaml`)agentverse-benchmark--tasktasksolving/humaneval/gpt-3.5--dataset_pathdata/humaneval/test.jsonl--overwrite
运行AgentVerse在特定问题上的命令,您可以尝试
#运行单个查询(配置文件`agentverse/tasks/tasksolving/brainstorming/gpt-3.5/config.yaml`)。任务在配置文件中指定。agentverse-tasksolving--tasktasksolving/brainstorming
要运行我们论文中介绍的使用工具的案例,例如,多智能体使用工具如网络浏览器、Jupyter笔记本、bing搜索等,您首先可以构建由XAgent[3]提供的ToolsServer。您可以按照他们的指导[4]构建并运行ToolServer。
构建并启动ToolServer后,您可以使用以下命令运行带工具的任务解决案例:
agentverse-tasksolving--tasktasksolving/tool_using/24point
我们在agentverse/tasks/tasksolving/tool_using/中提供了更多任务,展示了多智能体如何使用工具解决问题。
此外,您可以查看agentverse/tasks/tasksolving以了解我们论文中进行的更多实验。
如果您想使用vLLM,请按照此处[5]的指导安装并设置vLLM服务器,该服务器用于处理较大的推理工作负载。创建以下环境变量以连接到vLLM服务器:
exportVLLM_API_KEY="your_api_key_here"exportVLLM_API_BASE="http://your_vllm_url_here"
然后修改任务配置文件中的模型,使其与vLLM服务器中的模型名称匹配。例如:
model_type:vllmmodel:llama-2-7b-chat-hf
此部分提供了将FSChat集成到AgentVerse的逐步指导。FSChat是一个支持在您本地机器上运行的本地模型如LLaMA、Vicunna等的框架。
如果您想使用LLaMA等本地模型,您需要安装一些其他依赖:
pipinstall-rrequirements_local.txt
然后根据您的需求修改MODEL_PATH和MODEL_NAME,使用以下命令启动本地服务器:
bashscripts/run_local_model_server.sh
该脚本将为Llama 7B聊天模型启动服务。AgentVerse当前支持的MODEL_NAME包括llama-2-7b-chat-hf,llama-2-13b-chat-hf,llama-2-70b-chat-hf,vicuna-7b-v1.5, 和vicuna-13b-v1.5。如果您希望集成与FastChat兼容的其他模型[6],您需要:
1.将新的MODEL_NAME添加到agentverse/llms/init.py中的LOCAL_LLMS。2.在agentverse/llms/init.py文件中的LOCAL_LLMS_MAPPING中添加新的MODEL_NAME到其对应的Huggingface标识符的映射。
在您的配置文件中,设置llm_type为local,model为MODEL_NAME。例如:
llm:llm_type:localmodel:llama-2-7b-chat-hf...
您可以参考agentverse/tasks/tasksolving/commongen/llama-2-7b-chat-hf/config.yaml以获得更详细的示例。
参见仿真展示[7]
参见任务解决展示[8]
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |