前一阵阿里云栖大会,其中有个发布内容是全模态大模型Qwen3-Omni。
说实话,这是我第一次真正地审视“全模态大模型”这个概念,因为之前Qwen2.5-Omni发布的时候,有了解过,但不多。
先从概念上简单介绍下什么是“全模态大模型”。
“Qwen3-Omni是新一代原生全模态大模型,能够无缝处理文本、图像、音频和视频等多种输入形式,并通过实时流式响应同时生成文本与自然语音输出。”
接下来,为了更好地理解,我们与“多模态大模型”做个对比。
相同点是都可以输入多种模态的内容,比如:文字、图片、视频等。
但背后的实现模式其实差距挺大的。
多模态大模型的实现是针对不同模态输入,调用不同模型进行处理,然后将各种输出进行合并输出。
而“全模态大模型”则是模型本身原生支持了多种模态的输入和输出,从更加底层的维度进行了实现。
也许有朋友会想到豆包之前推出的AI 实时语音/视频功能,虽然和全模态大模型的效果比较类似,但实现方式并不一致。
豆包的相关功能是专门针对语音/视频场景,通过调度算法等工程手段实现的,主要采用了:
个人十分认可这种工程处理方法,但确实不算模型层面的进步。
既然已经有了各种工程实现,“全模态大模型”的意义又是什么呢?
经过查询,目前已经支持全模态大模型的主要模型有以下几个:GPT-4o、Gemini 2.5 Pro、Qwen3-Omni(此处仅列出典型产品,非全部)。
这里挑选了一个我很久之前就在期望的场景,给出指令后,AI 可以直接给出图文并茂的结果。
指令
写一篇关于北京胡同的游记,包含3张插图:胡同入口全景、冰糖葫芦特写、四合院门墩
结果
可以看到输出内容,文字和图片是混排的。
这里使用 Gemini2.5 Pro 进行的体验。
相比之下,Qwen3-Omni目前尚未开放图文混合生成能力,更多聚焦于“多模态输入 + 文本/语音输出”的流式交互场景。
今天主要学习了“全模态大模型”的相关概念,虽然,目前“全模态”还比较早期,但个人认为这种整体感知、原生思考、实时响应的 AI 才是未来。
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |