链载Ai

标题: RAG的基石:大语言模型文本向量化能力对比 [打印本页]

作者: 链载Ai    时间: 7 小时前
标题: RAG的基石:大语言模型文本向量化能力对比

什么是具象的高维向量空间?也许这是一个,在不同的平行空间里面,对不同的物体有各自的表示...

一、概述

大家都比较关心大语言模型的能力,但往往容易忽略其向量化(Embedding)的能力。在RAG应用中,对文本进行向量化后再计算向量相似度,如余弦相似度,是文本检索生成的基础和前置环节。如果向量不准确,必定会影响相似度计算,进一步影响招回和重排,甚至知识抽取等下游任务,影响甚大。因而我们需要认真来对待其结果,并且对其正确性和合理性进行评价。

本中对一些简单的文本对,使用不同的开源7B大语言模型来进行向量化,最终以其余弦相似度作为输出作为测试结果。语义的相似度如何进行评价很难达成一致意见,就下面的输出结果而言,可能人很难来评价其合理性。但我们可以通过比较不同大语言模型输出之间的差异,对比分析其文本向量化的能力、跨模型一致性和偏差。


先直接贴结果:




图:不同大语言模型对字符串对向量相似度比较



可以看出,不同的大语言模型,对同一对字符串向量相似度的理解存在较大的差异。我第一次看到结果时感觉有点惊讶。

我现在还没有理出头绪,但显然其中部分大语言模型的输出是不合理的,并且有的输出和其他大语言模型的输出存在较大的偏离,很显然,如果其中一个是正确的情况,那其他就是偏离甚至错误的情况。比如同一组词的相似度,不同大语言模型的输出范围包括从负值到0.7以上。


二、评测对象


三、测试方法

用LlamaSharp用,以Embedding模式加载大语言模型,实现文本向量化:

//Loadweightsintomemoryvar parameters = new ModelParams(RootPath){Seed = 1337u,EmbeddingMode = true};
var weight = LLamaWeights.LoadFromFile(parameters);var embedding = new LLamaEmbedder(weight, parameters);

四、评测结果

1、爱好比较


序号


大语言模型


余弦相似度


1


Mistral-7B


0.9194595217704773


2


WizardMath-7B-V1.1-Mistral-7B


0.9722315669059753


3


WizardMath-7B


0.9659444093704224


4


WizardLM-2-7B


0.9000769257545471


5


Meta-Llama-3-8B


0.9120883941650391


6


Chinese-Llama-2


0.9997099041938782


7


Qwen1.5-7B


0.8777709603309631


8


Llama 2 7b


0.9997739791870117


9


Yi-chat-9B


0.9656155109405518


10


Chinese-Alpaca-2-7B


0.9418708682060242


11


Baichuan2-7B-Chat


0.7609831690788269


12


CodeLlama-7B


0.9805717468261719


13


Mixtral-8x7B


0.9723657369613647



2、下班注意事项


序号


大语言模型


余弦相似度


1


Mistral-7B


0.6006873250007629


2


Chinese-Alpaca-2-7B


0.5809993743896484


3


Mixtral-8x7B


0.8583651185035706


4


WizardMath-7B


0.5944302678108215


5


Qwen1.5-7B


0.5158098340034485


6


Meta-Llama-3-8B


0.5567445755004883


7


WizardMath-7B-V1.1-Mistral-7B


0.606997549533844


8


Llama 2 7b


0.5725998282432556


9


Yi-chat-9B


0.6222318410873413


10


CodeLlama-7B


0.7767068147659302


11


Baichuan2-7B-Chat


0.4148940443992615


12


Chinese-Llama-2


0.4173697233200073


13


WizardLM-2-7B


0.4826260805130005



3、购买皮鞋


序号


大语言模型


余弦相似度


1


WizardMath-7B-V1.1-Mistral-7B


0.9549105763435364


2


Mixtral-8x7B


0.9740864038467407


3


Qwen1.5-7B


0.9682160019874573


4


CodeLlama-7B


0.8389745354652405


5


Mistral-7B


0.9343295693397522


6


Chinese-Alpaca-2-7B


0.2915574610233307


7


Yi-chat-9B


0.9639067053794861


8


WizardLM-2-7B


0.9335297346115112


9


WizardMath-7B


0.9227038621902466


10


Chinese-Llama-2


-0.008517207577824593


11


Baichuan2-7B-Chat


0.9351896047592163


12


Meta-Llama-3-8B


0.9342775344848633


13


Llama 2 7b


0.021673066541552544



4、猫和狗比较


序号


大语言模型


余弦相似度


1


WizardLM-2-7B


0.6294927000999451


2


Meta-Llama-3-8B


0.5248777866363525


3


Baichuan2-7B-Chat


0.16035179793834686


4


WizardMath-7B


0.7749522924423218


5


WizardMath-7B-V1.1-Mistral-7B


0.7058834433555603


6


Mistral-7B


0.7224012017250061


7


Chinese-Alpaca-2-7B


0.15339423716068268


8


CodeLlama-7B


0.5445933938026428


9


Chinese-Llama-2


0.194538414478302


10


Qwen1.5-7B


0.5761963129043579


11


Mixtral-8x7B


0.7579318881034851


12


Yi-chat-9B


0.5578252673149109


13


Llama 2 7b


0.44038861989974976



5、Englishvs 汉语


序号


大语言模型


余弦相似度


1


CodeLlama-7B


0.33356600999832153


2


Baichuan2-7B-Chat


0.57098788022995


3


Chinese-Alpaca-2-7B


0.11986920237541199


4


Mixtral-8x7B


-0.30094829201698303


5


Llama 2 7b


-0.005667471326887608


6


Mistral-7B


0.10879462957382202


7


Meta-Llama-3-8B


0.18513920903205872


8


WizardLM-2-7B


0.0768003985285759


9


Qwen1.5-7B


0.713830292224884


10


WizardMath-7B-V1.1-Mistral-7B


0.08147571235895157


11


WizardMath-7B


0.09978950768709183


12


Chinese-Llama-2


-0.029241781681776047


13


Yi-chat-9B


0.43288084864616394



6、English:go home


序号


大语言模型


余弦相似度


1


Qwen1.5-7B


0.6420629024505615


2


WizardLM-2-7B


0.7205202579498291


3


Meta-Llama-3-8B


0.6660025715827942


4


Chinese-Alpaca-2-7B


0.27626731991767883


5


CodeLlama-7B


0.7119967937469482


6


Yi-chat-9B


0.791547954082489


7


WizardMath-7B


0.7313649654388428


8


Llama 2 7b


-0.04700035974383354


9


Mistral-7B


0.6904579401016235


10


Baichuan2-7B-Chat


0.7068948745727539


11


Mixtral-8x7B


0.9776806831359863


12


Chinese-Llama-2


-0.027995778247714043


13


WizardMath-7B-V1.1-Mistral-7B


0.740699052810669



7、处罚规定


序号


大语言模型


余弦相似度


1


Mixtral-8x7B


0.9126697182655334


2


Mistral-7B


0.7717455625534058


3


Baichuan2-7B-Chat


0.5083956718444824


4


Yi-chat-9B


0.7497902512550354


5


Qwen1.5-7B


0.6885314583778381


6


CodeLlama-7B


0.47839587926864624


7


Chinese-Alpaca-2-7B


0.6295954585075378


8


WizardMath-7B


0.746604323387146


9


Meta-Llama-3-8B


0.7041338682174683


10


WizardMath-7B-V1.1-Mistral-7B


0.7953561544418335


11


Chinese-Llama-2


0.414549857378006


12


WizardLM-2-7B


0.6535733342170715


13


Llama 2 7b


0.6160202026367188



8、狗和狗比较


序号


大语言模型


余弦相似度


1


Baichuan2-7B-Chat


0.5302562713623047


2


WizardMath-7B-V1.1-Mistral-7B


0.8843305110931396


3


Meta-Llama-3-8B


0.7624377012252808


4


Yi-chat-9B


0.9097429513931274


5


WizardLM-2-7B


0.7355867624282837


6


CodeLlama-7B


0.68620365858078


7


WizardMath-7B


0.8989375829696655


8


Llama 2 7b


0.7147634029388428


9


Mixtral-8x7B


0.9531522989273071


10


Qwen1.5-7B


0.8283199667930603


11


Mistral-7B


0.8669305443763733


12


Chinese-Alpaca-2-7B


0.7255567908287048


13


Chinese-Llama-2


0.6491625905036926






五、评测结果初步分析

不考虑文本内容,相似度数据汇总对比如下?


爱好比较下班注意事项购买皮鞋猫和狗比较English vs 汉语English:go home处罚规定狗和狗比较
Baichuan2-7B-Chat0.7609831690.4148940440.9351896050.1603517980.570987880.7068948750.5083956720.530256271
Chinese-Alpaca-2-7B0.9418708680.5809993740.2915574610.1533942370.1198692020.276267320.6295954590.725556791
Chinese-Llama-20.9997099040.417369723-0.008517210.194538414-0.02924178-0.027995780.4145498570.649162591
CodeLlama-7B0.9805717470.7767068150.8389745350.5445933940.333566010.7119967940.4783958790.686203659
Llama 2 7b0.9997739790.5725998280.0216730670.44038862-0.00566747-0.047000360.6160202030.714763403
Meta-Llama-3-8B0.9120883940.5567445760.9342775340.5248777870.1851392090.6660025720.7041338680.762437701
Mistral-7B0.9194595220.6006873250.9343295690.7224012020.108794630.690457940.7717455630.866930544
Mixtral-8x7B0.9723657370.8583651190.9740864040.757931888-0.300948290.9776806830.9126697180.953152299
Qwen1.5-7B0.877770960.5158098340.9682160020.5761963130.7138302920.6420629020.6885314580.828319967
WizardLM-2-7B0.9000769260.4826260810.9335297350.62949270.0768003990.7205202580.6535733340.735586762
WizardMath-7B0.9659444090.5944302680.9227038620.7749522920.0997895080.7313649650.7466043230.898937583
WizardMath-7B-V1.1-Mistral-7B0.9722315670.606997550.9549105760.7058834430.0814757120.7406990530.7953561540.884330511
Yi-chat-9B0.9656155110.6222318410.9639067050.5578252670.4328808490.7915479540.7497902510.909742951




初步分析,可以发现几个情况:



希望能给你启发。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5