经过这半年的学习和整理,笔者也逐步构建了笔者心中的 AI Infrastructure 知识体系(Body of knowledge forAI Infrastructure)的 1.0 版本(2024年10月5日),涵盖基础的硬件知识和 CUDA 编程知识,内容会随着笔者学习的深入而逐步增加新的内容,也希望大家共同讨论学习,使得知识体系更加完善。
2025年8月28日,笔者在 1.1 版本的基础上,发布了 2.0 版本。
相关文章笔者也都整理在了 github 上(包括外部链接),详情可以参看:https://github.com/ForceInjection/AI-fundermentals/blob/main/README.md
本仓库是一个全面的人工智能基础设施(AI Infrastructure)学习资源集合,涵盖从硬件基础到高级应用的完整技术栈。内容包括 GPU 架构与编程、CUDA开发、大语言模型、AI系统设计、性能优化、企业级部署等核心领域,旨在为AI工程师、研究人员和技术爱好者提供系统性的学习路径和实践指导。
适用人群:
AI工程师、系统架构师、GPU 编程开发者、大模型应用开发者、技术研究人员。
技术栈:CUDA、GPU架构、LLM、AI系统、分布式计算、容器化部署、性能优化。
在准备在GPU上运行的应用程序时,了解GPU硬件设计的主要特性并了解与CPU的相似之处和不同之处会很有帮助。本路线图适用于那些对GPU比较陌生或只是想了解更多有关GPU中计算机技术的人。不需要特定的并行编程经验,练习基于CUDA工具包中包含的标准NVIDIA示例程序。
GPU架构与编程模型的全面介绍完整的AI基础设施技术课程体系:
课程内容概览:
Transformer架构、训练规模、DeepSeek技术突破、能力涌现现象GitHub Copilot、Cursor、Trae AI等工具对比,实际应用场景和效率数据GPU vs CPU对比、NVIDIA架构演进、CUDA编程模型、性能优化AIBrix架构、企业级部署实践理论与架构:
GPU 虚拟化解决方案:
运维工具与实践:
JuiceFS 分布式文件系统:
注意:相关内容为 2025 年春节完成,需要审慎参考!
模型对比与评测:
分布式系统设计:
核心特性:
测试工具:
核心特性:
技术架构:
分析维度:
性能分析工具:
关键指标与优化:
性能优化实践:
核心特性:
本部分专注于AI开发相关的编程技术、工具和实践,涵盖从基础编程到高性能计算的完整技术栈。
学习路径:
技术特色:
系统化的 Trae 编程学习体系:
技术特色:
CUDA-Learn-Notes:📚Modern CUDA Learn Notes: 200+ Tensor/CUDA Cores Kernels🎉, HGEMM, FA2 via MMA and CuTe, 98~100% TFLOPS of cuBLAS/FA2.
本部分基于动手学机器学习项目,提供系统化的机器学习学习路径。
核心特色:
基础理论与概念:
嵌入技术与表示学习:
高级架构与优化技术:
指令微调与监督学习:
大规模模型训练实践:
完整的 AI 推理优化技术文档系列,涵盖从小型到大型集群的推理优化策略:
理论基础与核心原理:
培训特色:
Python 生态:
Java 生态:
AISystem- 企业级 AI 系统学习的完整知识体系与技术栈,涵盖:
大模型与推理框架:
文档处理与数据预处理:
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |