|
《使用 NVIDIA NIM 大规模部署 RAG 工作流》 新课发布
在现代企业商业智能化的发展中,检索增强生成(RAG)在大语言模型应用中的地位日益凸显。不仅能够显著提升企业内容创作与交互的智能化水平,还能在多个业务场景中实现精准信息抽取与高效内容生成。企业级的 RAG 应用需要应对巨大流量和大规模文档,从模型搭建到生产级部署具有很高的复杂度和参数量。
本课程探讨 RAG 工作流生产级部署的最佳实践。您将学习部署、监控、自动扩展、线上热更新的全工作流。为您在搭建部署过程中,降低试错成本,加速大模型应用落地。
使用 Helm 和 NVIDIA RAG Operator 将 RAG 应用部署到 Kubernetes 集群上。 利用 NVIDIA NIM 实现可扩展的容器化 LLM 和嵌入模型。 连接、更新、添加和自动扩展应用组件。 使用 Prometheus 和 Grafana 监控应用性能。
课程设置概述:熟悉课程的交互式环境、Kubernetes 设置,并了解课程所需的 Kubernetes 概念和命令。 基于 Kubernetes 的 RAG 应用部署:如何使用 Kubernetes 和 Helm 部署 RAG 工作流,以及如何在工作流中使用单个 NIM 服务。 监控:如何使用 DCGM 监控应用程序,以及如何配置和查看 Grafana 和 Prometheus。 自动扩展:基于自定义指标使用 HPA 自动扩展应用程序,并对应用程序进行负载测试。 自定义 RAG 工作流组件:替换应用组件,例如 LLM。
|