链载Ai

标题: Aiops探索:我用Dify结合k8s的api做了一个非常简单的Aiops智能体 [打印本页]

作者: 链载Ai    时间: 4 天前
标题: Aiops探索:我用Dify结合k8s的api做了一个非常简单的Aiops智能体

做Aiops智能体,一开始我们可以先从最简单、最容易落地的入手,然后一点一点增加新的功能,从而让智能体更强大。一上来就搞得太复杂,很有可能你因为某个功能无法实现而半途而废。

今天这个智能体案例就是使用dify的http节点,来请求k8s的api,从而去控制和维护k8s集群。

一、整体架构设计和思路

流程是这样的:
1. 用户通过 Dify 的聊天界面输入自然语言指令(如:“帮我重启一下生产环境的user-service”)。
2. Dify 工作流中的LLM 节点解析用户意图,提取关键信息(如:操作=重启,环境=生产,服务名=user-service)。
3. LLM 节点将提取出的参数传递给HTTP 请求节点
4. HTTP 请求节点构造一个符合 K8s API 规范的 HTTP 请求(如:PATCH /apis/apps/v1/namespaces/production/deployments/user-service),并附上认证信息。
5. K8s API Server 接收到请求,进行认证和授权,然后在集群内执行相应的操作(如:触发 Deployment 的滚动更新)。
6. K8s API Server 将操作结果返回给 Dify 的 HTTP 节点。
7. Dify 工作流可以再次使用LLM 节点将返回的 JSON 结果格式化,用自然语言反馈给用户。

二、准备工作

1. 假设你已经有了一个k8s集群环境。
2. 安全地暴露k8s API,这是最关键的一步。
3. 创建 K8s ServiceAccount 和 Token (RBAC)
说明:以上3个操作不作为这篇文章的讨论内容,所以不涉及细节。

三、核心步骤

步骤 1: 创建工作流

在 Dify 控制台创建一个新的空白工作流应用。

步骤 2: 配置变量

在工作流的“开始”节点,添加变量,例如:

步骤 3: 使用 LLM 节点解析意图

添加一个 LLM 节点(如 GPT-4),连接“开始”节点。

你是一个Kubernetes运维助手。你的任务是解析用户的指令,并提取出关键信息,然后以JSON格式输出。用户可能想查询Pod状态、重启Deployment或查看日志。请从用户的指令中提取以下信息(如果存在):-"action": 操作类型,只能是"get_pod_status","restart_deployment","get_pod_logs"中的一个。-"namespace": K8s 命名空间。-"resource_name": 资源名称,如Pod或Deployment的名称。
如果信息不全,特别是"namespace"和"resource_name",请询问用户。
示例输入:"帮我重启一下生产环境的 user-service"示例输出: {"action":"restart_deployment","namespace":"production","resource_name":"user-service"}
示例输入:"default 命名空间里 my-app-pod 这个 pod 怎么样了"示例输出: {"action":"get_pod_status","namespace":"default","resource_name":"my-app-pod"}

步骤 4: 配置 HTTP 请求节点

这是核心。添加一个“HTTP 请求”节点,连接 LLM 节点的输出。

步骤 5: 处理结果

再添加一个 LLM 节点,连接 HTTP 请求节点的输出。

你是一个Kubernetes运维助手。你收到了一个关于Pod状态的JSON数据。请将以下JSON信息转换成易于理解的中文自然语言描述,并报告Pod的状态、IP、节点以及最近的事件(如果有)。

四、应用场景示例

示例 1: 智能查询 Pod 状态

示例 2: 重启 Deployment

示例 3: 高级 AIOps - 诊断与自动扩缩容


最后介绍下我的大模型课:我的运维大模型课上线了,目前还在预售期,有很大优惠。AI越来越成熟了,大模型技术需求量也越来越多了,至少我觉得这个方向要比传统的后端开发、前端开发、测试、运维等方向的机会更大,而且一点都不卷!






欢迎光临 链载Ai (http://www.lianzai.com/) Powered by Discuz! X3.5