链载Ai

标题: 大语言模型是如何推理的? [打印本页]

作者: 链载Ai    时间: 5 小时前
标题: 大语言模型是如何推理的?

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 16px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">不管是写点日常文案,还是解决复杂问题,大模型都展现出了让人惊叹的实力。

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 16px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">但话说回来,当我们说到“推理”这个词时,它真的像人一样,会自己“思考”、有逻辑地推导出答案吗?

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;display: table;padding: 0.3em 1em;color: rgb(255, 255, 255);background: rgb(51, 51, 51);border-radius: 8px;box-shadow: rgba(0, 0, 0, 0.1) 0px 4px 6px;">什么是推理Reasoning?

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 16px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">要讨论推理,我们首先要定义它的含义,并达成共识。推理的基本过程可以概括为:你接收到某些信息,经过思考后得出结论。

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 16px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">举个例子:

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 16px;font-style: italic;padding: 1em 1em 1em 2em;border-radius: 6px;color: rgba(0, 0, 0, 0.6);background: rgb(247, 247, 247);box-shadow: rgba(0, 0, 0, 0.05) 0px 4px 6px;">

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 1em;display: block;letter-spacing: 0.1em;color: rgb(63, 63, 63);">“标普 500 指数在三个月内下跌了 15%。”

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 16px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">当你听到这条信息时,你的大脑会开始思考,并将其与近期发生的事件联系起来。

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 16px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">例如,你可能会想到特朗普最近关税政策、美国经济增长低于预期、全球冲突等因素。

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 16px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">如果我进一步问你:

“明天股市会如何变化?”

你可能会查阅相关预测、新闻、税收和关税政策,并在不同假设下构建自己的观点。通常,投入的思考和研究越多,结论的准确率就越高。

人类的推理能力依赖于经验、知识和逻辑思维,它是一个主动的信息加工过程。

LLM 与推理

但LLM 并不能真正进行推理,而是通过模拟推理来生成答案。有时它的回答看起来很合理,有时却未必准确。

这与 LLM 的本质有关:它们是超强的文本预测器,依靠大规模训练数据和上下文信息来生成答案

LLM 预测答案的方式

假设一个 LLM 在训练过程中学习到了如下信息:

现在,如果我们问它:

“球可以是什么颜色?请给出三个答案。”

LLM 会计算最有可能的答案:

  1. 1. 球可以是红色。
  2. 2. 球可以是蓝色。
  3. 3. 球可以是……

由于紫色在数据集中出现的频率较高,LLM 可能会回答“紫色”。但我们都知道,球的颜色没有限定,它可以是任何颜色。

LLM 并不是在真正“推理”颜色的可能性,而是基于训练数据的模式进行概率预测。

OpenAI 真的让 LLM 具备推理能力了吗?

OpenAI 在文档[1]中声称:“推理模型(如 OpenAI o1 和 o3-mini)是通过强化学习训练的大型语言模型,能够执行复杂推理任务。”

并且,他们提到:“推理模型会在回答前进行深入思考,生成内部的推理链,从而在复杂问题求解、编程、科学推理和多步规划等任务中表现优异。”

乍一看,这似乎意味着 LLM 具备推理能力,但实际上它仍然是基于生成式文本预测来模拟推理。

LLM 的推理模拟机制:CoT

LLM 所谓的“推理”能力,实际上是一种称为Chain of Thought(思维链)的方法。

让我们看一个例子。

问题

“球可以是什么颜色?”

CoT 过程

  1. 1. 球可以是蓝色。
  2. 2. 球可以是红色。

最终输出

“因此,球可以是红色或蓝色。”

这个过程看似合理,但它并不是推理,而是文本生成。

但是,这种机制可能会出错:

问题

“球可以是什么颜色?请给出三个答案。”

错误的 CoT 过程

  1. 1. 球可以是蓝色。
  2. 2. 球可以是红色。
  3. 3. 汽车可以是紫色。

最终错误的输出

“因此,球可以是蓝色、红色,嗯……紫色?”

当上下文信息不足时,LLM 可能会做出错误的推断,如误把“车可以是紫色”混入答案中。

业界专家的观点

Meta 首席 AI 科学家 Yann LeCun 指出:

“LLM 并不会真正‘思考’或‘推理’,它们只是在做概率计算。”

换句话说,LLM 依赖的是海量数据中的模式匹配,而非像人类那样进行逻辑推演。

结论

LLM 在很多场景下都非常强大,但它们的核心仍然是文本预测,而非真正的推理能力。

虽然 LLM 在很多场景下表现出色,但其本质依然是一个文本预测器。了解这一点,有助于我们更好地利用技术,同时避免对其能力的过高预期。

正如阿瑟·克拉克的第三定律所说:

Any sufficiently advanced technology is indistinguishable from magic.

“任何足够先进的技术,都与魔法无异。”

大语言模型的能力有时让人惊叹,但理解其原理和局限性,才能更好地利用它们。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5