链载Ai

标题: 微软推出LongRoPE:将LLM上下文长度扩展到200万token [打印本页]

作者: 链载Ai    时间: 昨天 21:19
标题: 微软推出LongRoPE:将LLM上下文长度扩展到200万token

论文题目:LongRoPE:ExtendingLLMContextWindowBeyond2MillionTokens论文链接:https://arxiv.org/pdf/2402.13753.pdfGithub:https://github.com/microsoft/LongRoPE

论文介绍了一种名为LongRoPE的方法,它首次将预训练的大型语言模型(LLMs)的上下文窗口扩展到2048k个标记,同时在保持原始短上下文窗口性能的同时,仅需要1k步的微调。这一成就是通过三个关键创新实现的:

一个示例展示在不同插值方法下的RoPE嵌入。上图:直接外推下的RoPE。中图:线性位置插值下的重新缩放RoPE。下图:LongRoPE充分利用了识别出的两种非均匀性,导致在不同标记位置的RoPE维度上进行变化的插值和外推。

在LLaMA2和Mistral模型上进行的广泛实验表明,该方法在各种长上下文任务中都非常有效。通过LongRoPE扩展的模型保留了原始架构,并对位置嵌入进行了轻微修改,可以重用大多数现有的优化。
LongRoPE在256k上下文长度内也超越了其它不同位置插值方法(困惑度)

LongRoPE无需额外的微调,训练时的上下文窗口大小为 128k 和 256k,有效地扩展到了极长的 2048k 上下文大小

论文的实验部分也展示了LongRoPE在长文档上的低困惑度(perplexity)表现,以及在标准基准测试中的可比准确性。此外,LongRoPE在长上下文任务中,如密钥检索,也表现出色。

在 Hugging Face Open LLM 基准测试中,长上下文LLMs与原始 LLaMA2 和 Mistral 的比较。

长上下文LLMs的密钥检索准确率。展示了LongRoPE在从数百万级别的标记池中准确检索密钥的显著能力。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5