链载Ai

标题: Meta开源的Llama官方Agent:Llama-Agentic-System深度解析 [打印本页]

作者: 链载Ai    时间: 昨天 10:49
标题: Meta开源的Llama官方Agent:Llama-Agentic-System深度解析

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 17.6px;font-weight: bold;display: table;margin: 4em auto 2em;padding-right: 0.2em;padding-left: 0.2em;background: rgb(15, 76, 129);color: rgb(255, 255, 255);">TLDR

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 17.6px;font-weight: bold;display: table;margin: 4em auto 2em;padding-right: 0.2em;padding-left: 0.2em;background: rgb(15, 76, 129);color: rgb(255, 255, 255);">引言

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 16px;margin: 1.5em 8px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">大型语言模型(LLM)的迅猛发展为人工智能领域带来了革命性的变化。从最初的文本生成工具,LLM 逐渐展现出理解复杂指令、执行多步任务的潜力。然而,如何将 LLM 安全、高效地应用于实际任务仍然是一个挑战。Meta 推出的 Llama 3.1 为解决这个问题提供了新的思路:将 Llama 作为一个系统,使其能够完成更复杂的任务,并增强其安全性。本文将详细介绍 Llama as a System 的概念、功能以及如何使用它构建 AI 应用。

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 17.6px;font-weight: bold;display: table;margin: 4em auto 2em;padding-right: 0.2em;padding-left: 0.2em;background: rgb(15, 76, 129);color: rgb(255, 255, 255);">Llama Agentic System 的核心功能

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 16px;margin: 1.5em 8px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">Llama Agentic System 的核心在于将 Llama 模型从一个简单的文本生成工具转变为一个能够自主完成任务的智能代理。它具备以下关键能力:

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 17.6px;font-weight: bold;display: table;margin: 4em auto 2em;padding-right: 0.2em;padding-left: 0.2em;background: rgb(15, 76, 129);color: rgb(255, 255, 255);">Llama Agentic System 架构解析

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 16px;margin: 1.5em 8px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">为了更好地理解 Llama Agentic System 的工作原理,让我们深入了解其架构。下图展示了 Llama Agentic System 的核心组件及其交互方式:


ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 16px;margin: 1.5em 8px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">组件说明:

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 16px;margin: 1.5em 8px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">工作流程:

  1. 1. 用户将任务指令和相关信息发送给 Executor。

  2. 2. Executor 调用安全机制对用户输入进行检查,确保输入内容安全无害。

  3. 3. Executor 将任务指令发送给 LLM,LLM 分析指令并选择合适的工具(如果需要)。

  4. 4. LLM 根据任务指令选择合适的工具,并将调用请求发送给 Executor。

  5. 5. Executor 调用安全机制对工具调用进行检查,防止潜在的安全风险。

  6. 6. Executor 调用相应的工具,并将工具返回的结果发送给 LLM,LLM 继续处理任务。

  7. 7. LLM 整合工具返回的结果,生成最终的回复,并发送给 Executor。

  8. 8. Executor 调用安全机制对模型输出进行检查,确保输出内容安全可靠。

  9. 9. Executor 将最终的回复发送给用户,完成任务。

Llama Agentic System 代码实现细节

Llama Agentic System 的核心代码位于llama_agentic_system/agentic_system.py文件中。以下是一些关键代码片段和解释:

1. AgentInstance 类

classAgentInstance(ShieldRunnerMixin):
def__init__(
self,
system_id:int,
instance_config:AgenticSystemInstanceConfig,
model:InstructModel,
inference_api:Inference,
builtin_toolsist[SingleMessageBuiltinTool],
custom_tool_definitionsist[ToolDefinition],
input_shieldsist[ShieldBase],
output_shieldsist[ShieldBase],
max_infer_iters:int=10,
prefix_messages:Optional[List[Message]]=None,
):
#...初始化代码...

#初始化内置工具字典
self.tools_dict={t.get_name():tfortinbuiltin_tools}
#初始化会话字典
self.sessions={}
#初始化安全机制
ShieldRunnerMixin.__init__(
self,
input_shields=input_shields,
output_shields=output_shields,
)

defcreate_session(self,name:str)->Session:
#...创建会话代码...

AgentInstance类表示一个 Llama Agentic System 实例,负责管理会话、执行推理、调用工具和安全机制等。它是 Llama Agentic System 的核心控制单元,协调各个组件协同工作。

2. create_and_execute_turn 方法

asyncdefcreate_and_execute_turn(
self,request:AgenticSystemTurnCreateRequest
)->AsyncGenerator:
#...获取会话,构建历史消息...

#...创建轮次ID,初始化参数...

#发送轮次开始事件
yieldAgenticSystemTurnResponseStreamChunk(
event=AgenticSystemTurnResponseEvent(
payload=AgenticSystemTurnResponseTurnStartPayload(
turn_id=turn_id,
)
)
)

steps=[]
output_message=None
asyncforchunkinself.run(
turn_id=turn_id,
input_messages=messages,
temperature=params.temperature,
top_p=params.top_p,
stream=request.stream,
max_gen_len=params.max_tokens,
):
#处理推理过程中的事件流
#...

#...断言output_message不为空...

#创建轮次实例
turn=Turn(
turn_id=turn_id,
session_id=request.session_id,
input_messages=request.messages,
output_message=output_message,
started_at=start_time,
completed_at=datetime.now(),
steps=steps,
)
#将轮次添加到会话中
session.turns.append(turn)
#发送轮次结束事件
yieldAgenticSystemTurnResponseStreamChunk(
event=AgenticSystemTurnResponseEvent(
payload=AgenticSystemTurnResponseTurnCompletePayload(
turn=turn,
)
)
)

该方法负责创建一个新的会话轮次,并执行用户请求。它会根据用户输入调用 LLM 进行推理,并根据 LLM 的回复调用相应的工具。这个方法实现了 Llama Agentic System 的交互逻辑,处理用户输入并生成相应的输出。

3. run 方法

asyncdefrun(
self,
turn_id:str,
input_messagesist[Message],
temperature:float,
top_p:float,
stream:bool=False,
max_gen_len:Optional[int]=None,
)->AsyncGenerator:
#对用户输入调用安全机制
asyncforresinself.run_shields_wrapper(
turn_id,input_messages,self.input_shields,"user-input"
):
ifisinstance(res,bool):
return
else:
yieldres

#调用_run方法执行推理
asyncforresinself._run(
turn_id,input_messages,temperature,top_p,stream,max_gen_len
):
ifisinstance(res,bool):
return
elifisinstance(res,CompletionMessage):
final_response=res
break
else:
yieldres

#...断言final_response不为空...

#对模型输出调用安全机制
messages=input_messages+[final_response]
asyncforresinself.run_shields_wrapper(
turn_id,messages,self.output_shields,"assistant-output"
):
ifisinstance(res,bool):
return
else:
yieldres

yieldfinal_response

run方法是create_and_execute_turn方法的核心,它实现了 Llama Agentic System 的推理逻辑,包括调用 LLM、执行工具、处理安全机制等。该方法是 Llama Agentic System 智能的核心,实现了多步推理、工具使用和安全保障等关键功能。

4. _run 方法

asyncdef_run(
self,
turn_id:str,
input_messagesist[Message],
temperature:float,
top_p:float,
stream:bool=False,
max_gen_len:Optional[int]=None,
)->AsyncGenerator:
#预处理消息,添加系统提示信息
input_messages=preprocess_dialog(input_messages,self.prefix_messages)

attachments=[]
n_iter=0
whileTrue:
#...获取最后一条消息,打印消息内容...

step_id=str(uuid.uuid4())
#发送推理步骤开始事件
yieldAgenticSystemTurnResponseStreamChunk(
event=AgenticSystemTurnResponseEvent(
payload=AgenticSystemTurnResponseStepStartPayload(
step_type=StepType.inference.value,
step_id=step_id,
)
)
)

#构建推理请求
req=ChatCompletionRequest(
model=self.model,
messages=input_messages,
available_tools=self.instance_config.available_tools,
stream=True,
sampling_params=SamplingParams(
temperature=temperature,
top_p=top_p,
max_tokens=max_gen_len,
),
)

tool_calls=[]
content=""
stop_reason=None
#调用推理接口,处理推理结果
asyncforchunkinself.inference_api.chat_completion(req):
#...处理推理结果...

#...处理推理结束原因...

#创建CompletionMessage实例
message=CompletionMessage(
content=content,
stop_reason=stop_reason,
tool_calls=tool_calls,
)

#发送推理步骤结束事件
yieldAgenticSystemTurnResponseStreamChunk(
event=AgenticSystemTurnResponseEvent(
payload=AgenticSystemTurnResponseStepCompletePayload(
step_type=StepType.inference.value,
step_id=step_id,
step_details=InferenceStep(
step_id=step_id,turn_id=turn_id,model_response=message
),
)
)
)

#...处理推理结束条件...

#...处理模型调用工具...

n_iter+=1

_run方法是run方法的核心,它实现了 Llama Agentic System 的推理逻辑,包括调用 LLM、执行工具、处理安全机制等。

Llama Agentic System Demo 示例

Llama Agentic System 提供了一些 Demo 示例,展示了如何使用它来完成实际任务。以下是一些示例:

1. 通货膨胀分析

importasyncio
importfire
fromllama_models.llama3_1.api.datatypesimport*#noqa:F403
fromcustom_tools.ticker_dataimportTickerDataTool
frommulti_turnimportprompt_to_message,run_main

#定义主函数
defmain(host:str,port:int,disable_safety:bool=False):
#使用asyncio运行异步主函数
asyncio.run(
run_main(
[
UserMessage(
content=[
"Hereisacsv,canyoudescribeit?",
Attachment(
url=URL(uri="file://examples/resources/inflation.csv"),
mime_type="text/csv",
),
],
),
prompt_to_message("Whichyearendedwiththehighestinflation?"),
prompt_to_message(
"Whatmacroeconomicsituationsthatledtosuchhighinflationinthatperiod?"
),
prompt_to_message("Plotaverageyearlyinflationasatimeseries"),
prompt_to_message(
"Usingprovidedfunctions,gettickerdataforMETAforthepast10years?plotpercentageyearoveryeargrowth"
),
prompt_to_message(
"CanyoutakeMeta'syearoveryeargrowthdataandputitinthesameinflationtimeseriesasabove?"
),
],
host=host,
port=port,
disable_safety=disable_safety,
custom_tools=[TickerDataTool()],
)
)


if__name__=="__main__":
fire.Fire(main)

代码解读:

2. 旅行计划

importasyncio
importfire
frommulti_turnimportprompt_to_message,run_main

#定义主函数
defmain(host:str,port:int,disable_safety:bool=False):
asyncio.run(
run_main(
[
prompt_to_message(
"IamplanningatriptoSwitzerland,whatarethetop3placestovisit?"
),
prompt_to_message("Whatissospecialabout#1?"),
prompt_to_message("WhatothercountriesshouldIconsidertoclub?"),
prompt_to_message("HowmanydaysshouldIplanforineachcountry?"),
],
host=host,
port=port,
disable_safety=disable_safety,
)
)

#当脚本作为主程序运行时,使用fire库执行main函数
if__name__=="__main__":
fire.Fire(main)

代码解读:

Llama Agentic System 安装与配置

如果您对 Llama as a System 感兴趣,并想尝试使用它,可以按照以下步骤进行安装和配置:

#创建并激活虚拟环境
ENV=agentic_env
with-proxycondacreate-n$ENVpython=3.10
cd<path-to-llama-agentic-system-repo>
condaactivate$ENV

#安装所需包
pipinstall-rrequirements.txt
pipinstallllama-agentic-system

#安装bubblewrap
#...根据您的操作系统安装bubblewrap...

#测试安装
llama--help

#下载模型检查点
llamadownloadmeta-llama/Meta-Llama-3.1-8B-Instruct
llamadownloadmeta-llama/Meta-Llama-3.1-70B-Instruct
llamadownloadmeta-llama/Prompt-Guard-86M--ignore-patternsoriginal
llamadownloadmeta-llama/Llama-Guard-3-8B--ignore-patternsoriginal

#配置推理服务器
llamainferenceconfigure

#运行推理服务器
llamainferencestart

#配置AgenticSystem
llamaagentic_systemconfigure

#运行应用程序
mesopapp/main.py

#脚本交互
cd<path-to-llama-agentic-system>
condaactivate$ENV
llamainferencestart

pythonexamples/scripts/vacation.pylocalhost5000

结论

Llama as a System 为构建更智能、更安全的 AI 应用提供了强大的工具。通过将 Llama 模型与工具、安全机制相结合,我们可以构建能够解决更复杂问题的 AI 代理,并将其应用于更广泛的领域。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5