链载Ai

标题: 大模型开发 - 一文搞懂Embedding工作原理 [打印本页]

作者: 链载Ai    时间: 3 天前
标题: 大模型开发 - 一文搞懂Embedding工作原理
ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: var(--articleFontsize);letter-spacing: 0.034em;visibility: visible;">不懂Embedding,何以懂AI?
本文将从ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: var(--articleFontsize);letter-spacing: 0.034em;">Text Embedding工作原理ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: var(--articleFontsize);letter-spacing: 0.034em;">ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: var(--articleFontsize);letter-spacing: 0.034em;">Image Embedding工作原理ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: var(--articleFontsize);letter-spacing: 0.034em;">、Vedio ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: var(--articleFontsize);letter-spacing: 0.034em;">Embedding工作原理三个方面,带您一文搞懂ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: var(--articleFontsize);letter-spacing: 0.034em;background-color: rgb(255, 255, 255);">ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: var(--articleFontsize);letter-spacing: 0.034em;">Embedding工作原理

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: var(--articleFontsize);letter-spacing: 0.578px;">Embedding可视化‍ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: var(--articleFontsize);letter-spacing: 0.578px;">

一、TextEmbedding工作原理

文本向量化(TextEmbedding)将文本数据(词、句子、文档)表示成向量的方法。

词向量化将词转为二进制或高维实数向量,句子和文档向量化则将句子或文档转为数值向量,通过平均、神经网络或主题模型实现。

词向量化

BERT句子向量化

文档向量化

统计方法用TF-IDF和N-gram统计生成文本向量,而神经网络方法如Word2Vec、GloVe等通过深度学习学习文本向量。

TF-IDF

Word2Vec

工作原理:将离散的文字信息(如单词)转换成连续的向量数据。这样,语义相似的词在向量空间中位置相近,并通过高维度捕捉语言的复杂性。

举例来讲,这里有三句话:

人类能理解句子1和句子2含义相近,尽管它们只有“The”这个单词相同。但计算机需要Embedding技术来理解这种关系。Embedding将单词转换为向量,使得语义相似的句子在向量空间中位置相近。这样,即使句子1和句子2没有很多共同词汇,计算机也能理解它们的相关性。

如果是人类来理解,句子 1 和句子 2 几乎是同样的含义,而句子 3 却完全不同。但我们看到句子 1 和句子 2 只有“The”是相同的,没有其他相同词汇。计算机该如何理解前两个句子的相关性?

Embedding将单词转换为向量,使得语义相似的句子在向量空间中位置相近。这样,即使句子1和句子2没有很多共同词汇,计算机也能理解它们的相关性。

向量空间可视化

二、ImageEmbedding工作原理

图像向量化(ImageEmbedding)将图像数据转换为向量的过程

卷积神经网络和自编码器都是用于图像向量化的有效工具,前者通过训练提取图像特征并转换为向量,后者则学习图像的压缩编码以生成低维向量表示。

CNN

工作原理:通过算法提取图像的关键特征点及其描述符,将这些特征转换为高维向量表示,使得在向量空间中相似的图像具有相近的向量表示,从而便于进行图像检索、分类和识别等任务。

图像向量化

三、VedioEmbedding工作原理

视频向量化(Vedio Embedding):OpenAI的Sora将视觉数据转换为图像块(Turning visual data into patches)。

将视觉数据转换为图像块

工作原理:Sora 用visual patches 代表被压缩后的视频向量进行训练,每个patches相当于GPT中的一个token。使用patches,可以对视频、音频、文字进行统一的向量化表示,和大模型中的 tokens 类似,Sora用 patches 表示视频,把视频压缩到低维空间(latent space)后表示为Spacetime patches。

OpenAI大模型的核心架构:大力出奇迹。Embedding技术实现文本、图像、视频等数据向量化表示,为大型模型提供了丰富的特征输入。只要模型规模足够大,这些向量化数据就能驱动模型生成各种所需的内容,体现了“万物皆可生成”的能力






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5