链载Ai

标题: 全面解析LoRA、QLoRA、RLHF,PPO,DPO,Flash Attention、增量学习等大模型算法 [打印本页]

作者: 链载Ai    时间: 3 天前
标题: 全面解析LoRA、QLoRA、RLHF,PPO,DPO,Flash Attention、增量学习等大模型算法

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;text-wrap: wrap;letter-spacing: 0.578px;background-color: rgb(255, 255, 255);text-align: left;margin-bottom: 0px;">随着大模型的飞速发展,在短短一年间就有了大幅度的技术迭代更新,从LoRA、QLoRA、AdaLoRa、ZeroQuant、Flash Attention、KTO、蒸馏技术到模型增量学习、数据处理、新的开源模型的理解等,几乎每天都有新的发展。

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;text-wrap: wrap;letter-spacing: 0.578px;background-color: rgb(255, 255, 255);text-align: left;margin-bottom: 0px;">

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;text-wrap: wrap;letter-spacing: 0.578px;background-color: rgb(255, 255, 255);text-align: left;margin-bottom: 0px;">作为算法工程师,面对如此飞快的技术迭代,是否感觉到自己的学习步伐有点跟不上技术的发展?而且对这些新兴技术的理解仅仅停留在应用层面上,实际上对背后的原理没有具体剖析过?如果希望在大模型赛道上持续保持竞争壁垒,对技术本身的深入理解可能也是很必要的选项。

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;text-wrap: wrap;letter-spacing: 0.578px;background-color: rgb(255, 255, 255);text-align: left;margin-bottom: 0px;">

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;text-wrap: wrap;letter-spacing: 0.578px;background-color: rgb(255, 255, 255);text-align: left;margin-bottom: 0px;">鉴于这类痛点,并迎合技术的发展,贪心科技一如即往地在这个关键时间点推出《大模型微调算法实战营》,通过3个月的时间,全面掌握大模型领域主流的技术以及背后的精髓,帮大家大大节省学习成本。


下面是7阶段学习安排,对于核心的技术同时也配代表性的项目讲解,感兴趣的朋友们欢迎扫码咨询。

已为本号用户申请优惠!
前20位报名学员享受早鸟福利价
请联系课程顾问老师咨询~



详细大纲


第一阶段:大模型基础


第一章:开营典礼


第二章:大模型是怎么炼成的


第三章:Transformer模型原理剖析(1)


第四章:Transformer模型原理剖析(2)


第五章:Transformer模型原理剖析(3)


第六章:Transformer模型全量微调和高效微调


第七章:【项目实战1】大模型PEFT微调项目


第八章:GPT模型家族剖析


第九章:LLaMA家族模型剖析


第十章:ChatGLM家族模型剖析


第十一章:Baichuan家族模型剖析



第二阶段:大模型指令微调之- LoRA


第十二章:指令微调基础


第十三章:必要矩阵知识


第十四章:LoRA算法剖析


第十五章:指令数据搜集和生成


第十六章:【项目实战2】Alpaca微调大模型


第十七章:AdaLoRA算法剖析



第十八章:【项目实战3】Vicuna微调大模型



第三阶段:大模型指令微调之- Quantization


第十九章:模型Quantization基础


第二十章:QLoRA算法剖析


第二十一章:【项目实战4】QLoRA微调LLaMA大模型


第二十二章:模型Compression技术


第二十三章:模型蒸馏技术探索


第二十四章:ZeroQuant算法剖析


第二十五章:SmoothQuant算法剖析



第四阶段:大模型对齐之-RLHF


第二十六章:RLHF算法概述


第二十七章:人类反馈的集成


第二十八章:PPO算法概述


第二十九章:强化学习和数据基础


第三十章:策略优化基础


第三十一章:PPO核心技术细节


第三十二章:基于开源大模型从零实现PPO算法


第三十三章:高级PPO技术和强化学习进阶


第三十四章:【项目实战5】RLHF医疗大模型微调



第五阶段:大模型对齐之-DPO


第三十五章:DPO算法概述


第三十六章:排序和偏好的基础


第三十七章:DPO核心技术细节


第三十八章:DPO算法的从零实现


第三十九章:【项目实战6】DPO在推荐系统中的应用


第四十章:高级DPO技术



第六阶段:大模型其他微调技术


第四十一章:Prefix Tuning算法剖析


第四十二章:Adaptor Tuning算法剖析


第四十三章:Flash Attention算法剖析


第四十四章:Flash Attention 2算法剖析


第四十五章:Kahneman-Tversky Optimization (KTO) 算法剖析


第四十六章:【项目实战7】QLoRA+Flash Attention微调大模型



第七阶段:大模型增量学习


第四十七章:大模型增量学习概述


第四十八章:增量学习与灾难性遗忘


第四十九章:增量学习中的高级主题



类别
说明
程形式
线上直播+课程学习群答疑
课程安排
13次直播授课,每周1次,每次3-3.5小时
课程服务
25人以内学习群,助教答疑,保证遇到的问题被快速解决
专属咨询顾问与班主任老师全程伴学
全程直播讲解与演示+可反复观看课程视频

课程主讲



郑老师
人工智能、大模型领域专家


李文哲
贪心科技创始人兼CEO
人工智能、大模型领域专家







欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5