|
 本文旨在让无大模型开发背景的工程师或者技术爱好者无痛理解大语言模型应用开发的理论和主流工具,因此会先从与LLM应用开发相关的基础概念谈起,并不刻意追求极致的严谨和完备,而是从直觉和本质入手,结合笔者调研整理及消化理解,帮助大家能够更容易的理解LLM技术全貌,大家可以基于本文衍生展开,结合自己感兴趣的领域深入研究。若有不准确或者错误的地方也希望大家能够留言指正。第二部分应用挑战:
1.问题定义与基本思路 2.基本流程与相关技术 1)embbeding与tokenization 2)向量数据库 3)finetune(微调) 4)模型部署与推理 5)prompt 6)编排与集成 a. langchain 1.1. models 1.2. prompts 1.3. memory 1.4. indexes 1.5. chains 1.6. agents 1.7. callbacks b. llama-index 7)预训练 场景案例(语义检索系统) 常用参考(好工具/好网站/好文章) ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;visibility: visible;">第一部分基础概念:ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;visibility: visible;">1.机器学习场景类别AI2.0时代到来,而AI1.0和AI2.0的区别是什么?基于场景类别来看,可以是很好的判别方法。在过去以alphaGo为代表的1.0时代,人工智能场景多以判别式AI为主。而到了2.0时代,以LLM(large language model)为代表的生成式AI有了大的发展。两者各有特点,关注的问题不同,相对于判别式ai需要大量的标注,模型泛化能力差,看起来不那么AI,而生成式AI的不同于判别式AI的技术特点和场景应用,特别是openAI开发的chatgpt惊艳产品效果,让大众认为这一次的技术不再是简单炒概念,而更接近于AGI(通用人工智能),因此也让AI迎来了新的一轮关注。- 判别式(Discriminative AI)(分类/回归/识别/定位),传统机器学习应用场景,适合决策分析场景。
- 生成式(Generative AI)(LLM兴起),多模态,泛化性,具有创造力,有智能涌现现象。
ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;letter-spacing: 0.544px;text-wrap: wrap;background-color: rgb(255, 255, 255);text-size-adjust: inherit;margin-left: 20px !important;padding-top: 0px !important;padding-left: 8px !important;border-left-width: 4px !important;border-left-color: rgba(134, 134, 134, 0.3) !important;">来自ChatGPT: 生成式AI(Generative AI)和判别式AI(Discriminative AI)是两种不同的机器学习方法,它们在许多应用中都发挥着重要作用。下面是这两种方法的对比: 任务定义:
模型示例:
优缺点:
应用场景:
总之,生成式AI和判别式AI在不同的任务和应用场景中各有优势。在选择合适的方法时,需要根据具体问题和需求进行权衡。 ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;visibility: visible;">2.机器学习类型(LLM相关)ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;visibility: visible;text-indent: 2em;">大模型应用涉及到以下三类机器学习方法:ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;visibility: visible;text-indent: 2em;">其中,预训练阶段采用无监督学习的方法,通过在大量无标注语料(多来自于互联网维基百科,github等等)中学习规律,在这一过程中,其并不是真的无监督,而是通过一些设计,如bert采用的句子填空,gpt采用文字接龙的方式来达到机器自我训练的目的。这一过程可以理解为是一个数据压缩的过程,使得海量的数据被压缩到一个模型中,自然可以理解,语料足够多,模型足够大的时候,那么模型可以蕴含语料中暗藏的逻辑和知识。ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;visibility: visible;text-indent: 2em;">不进行监督学习的大模型可以认为是个哑巴,它无法完整特定的任务,需要监督学习的方式,给模型一些例子或者步骤(数据集是需要人工标记的),帮助大模型知道如何输出,怎么样思考,从而应对不同的应用场景,如对话,翻译等,这就是“对齐(alignment)”的概念。ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;visibility: visible;text-indent: 2em;">强化学习更多是在这个基础上的再完善,不直接给出正确的答案,而是由模型生成,然后对答案进行打分,从而让大模型能够更好的适应按照用户的喜好来工作。ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;visibility: visible;margin-bottom: 24px;">3.深度学习的兴起- 经典机器学习如lr等,模型容量有限,存在模型bias,弹性不足。
- 深度学习模块化更好,能够以统一的模式更好得搭建复杂的模型结构。
ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;visibility: visible;margin-top: 0px;text-indent: 0em;">2.tranformer源起发展轨迹:cnn(无记忆) => rnn(串行,短期记忆) => lstm(较长期记忆) => transformer(位置编码,并行,快) 特点:对位置,上下文编码,能够融会贯通。transformer更利于并行计算,算力的提升,使得tranformer的流行。 尽管如此,当前模型输入仍然有token数量限制。所谓token,本质就是输入被拆分的字符,也可以是一个单词、一个标点符号、一个数字、一个符号等,它和切词方法有关,模型再基于token进行embbeding,模型本身的输入决定了token数量的多少(并不完全一致,目前一些模型的token限制更多是处理架构软硬件性能的考虑)。 来自ChatGPT: 生成式AI 大模型的token数量受多个因素的限制,包括硬件和软件方面的限制。
硬件方面,大模型需要大量的内存和计算资源来训练和运行。随着模型的规模增加,所需的内存和计算资源也会相应增加。目前,大多数机器学习任务都需要使用分布式计算集群来训练大型模型。
软件方面,大模型的token数量也受到一些限制。例如,在自然语言处理任务中,模型的输入文本需要进行分词处理,将文本转换为token序列,这样模型才能理解和处理文本。如果输入文本过长,导致token序列过长,那么模型的训练和推理速度都会变慢。此外,大模型的参数数量也会随着token数量的增加而增加,这会导致模型更难以训练和优化。
因此,大模型的token数量需要在硬件和软件方面进行平衡,以便在可接受的计算资源和时间内完成训练和推理任务。同时,还需要考虑模型的精度和效果,以确定最优的token数量。
3.对抗生成的思想 对于生成式ai来讲,对抗生成的思想尤为重要,这会很方便理解文字生成和图像生成的内在原理,是StableDiffusion等新图片生成方法的源起。对抗生成可以理解为有两个模型,一个生成模型(generator)和一个生成质量的判别模型(discriminater)。generater可以基于用户的提示词生成图片,discriminater来判定这个图片是否满足要求,在这个过程中用到了标记数据(文字-图片-得分),通过它可以训练出一个discriminater 来判别生成的图片怎么样,而训练的过程就是训练一个generater,它生成的图片能够骗过discriminator,discriminater也再不断迭代,努力不让generater骗过,这样的博弈若干轮,变生成了可以满足需要的generator。而从这里看出,增加参数的随机性,便能提升生成的多样性,现在模型的temperature便是这个概念(参考熵增)。 
另外,如何做到无标记数据也能做到,可以参考cycle gan的思想,其本质就是自己给自己做标签,训练一个gennerator将图片变成向量,然后再训练一个generater将向量生成图片,然后计算原图和生成图的相似性,通过这样的循环迭代训练,便能训练出我们需要的模型。再使用时我们只需要按需拿其中一个即可。 
从另一个角度讲,模型训练和推理即压缩与解压缩的过程,比如如何将图片压缩到一个高密度的向量(文字),然后再基于高密度向量(文字)生成图片,其他还有文字->语音,文章->总结,总结->文章等。自编码器的思想与cycle gan类似。通过这样的做法可以做到无监督的效果。 
 这样的思想在图片生成,风格转换,翻译等很多生成式场景有应用。参考李宏毅机器学习课程:https://speech.ee.ntu.edu.tw/~hylee/ml/ml2021-course-data/gan_v10.pdf4.基础模型gpt模型:文字接龙 创造性好 通过大量的语料训练,将知识进行压缩,而知识中蕴含着深度的哲学,科学,基本推理逻辑,某种意义上,当有数据足够多,模型参数足够多,就能将这些内容压缩储藏在模型中,最终到涌现的效果(>10B)。预训练大模型本身不具备特定的任务能力,需要结合实际领域能力进行微调(fine-tune),才能让大模型具备具体的能力。 
3.常见开源模型: chatGLM6b/chatGLM13b 清华出品 https://github.com/THUDM llama meta出品 https://github.com/facebookresearch/llama
Vicuna-13B 羊驼 基于llama微调 Falcon LLM阿布扎比政府研究院(TII)出品 https://huggingface.co/tiiuae
张腾飞 译,公众号:分布式实验室开源大语言模型汇总 可商用大模型:https://github.com/eugeneyan/open-llms 4.大模型评测: 国内superClue排行榜:https://www.superclueai.com/ UC伯克利排行榜:https://chat.lmsys.org/ 斯坦福排行榜:https://tatsu-lab.github.io/alpaca_eval/
|