返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

AGI|前端页面如何支持多模态大模型的流式返回?一文弄懂!

[复制链接]
链载Ai 显示全部楼层 发表于 2 小时前 |阅读模式 打印 上一主题 下一主题

前端页面如何支持多模态大模型的流式返回

随着人工智能技术的快速发展,多模态大模型(如OpenAI的GPT-4)在各类应用中变得越来越普遍。这些模型不仅可以处理文本数据,还可以理解和生成图像、视频、音频等多种类型的数据。


在前端页面中实现对这些大模型的支持,尤其是流式返回结果,可以显著提升用户体验。本篇文章带大家了解一下前端前端页面如何支持多模态大模型的流式返回。


作者

李好| 前端开发工程师

大道至简


Large language models and their chat variants are the primary bottleneck in LLM based apps. ?


Large language models can takeseveral secondsto generate a complete response to a query. This is far slower than the~200-300 msthreshold at which an application feels responsive to an end user.


The key strategy to make the application feel more responsive is to show intermediate progress; viz., to stream the output from the modeltoken by token.


Part1

前言


在用户体验至上的时代,应用的响应速度至关重要。大语言模型在生成响应时可能会有显著延迟,传统的HTTP请求响应模型在面对实时数据更新时往往显得力不从心,为了改善用户体验,流式返回(Streaming)成为了一种高效的解决方案。一起来看看如何在前端页面中实现流式返回,并支持多模态大模型的输出。



Part2

基本概念


流式返回


流式返回是一种数据传输方式,允许服务器在一次连接中逐步发送数据,而不是一次性返回全部结果。对于大语言模型的输出,可以逐个token地发送,这样用户可以在等待完整响应的过程中看到逐步生成的内容,从而感觉到应用更加响应迅速。


多模态大模型


多模态大模型能够处理和生成多种类型的数据,包括文本、图像、音频、视频等。这样的模型可以在不同模态之间进行关联和转换,提供更丰富和复杂的应用场景。支持这种模型需要前端能够灵活地展示不同类型的返回结果。



Part3

前端页面的准备工作


在开始编码之前,需要确保前端环境已经准备好:


  • HTML5 支持:确保使用的浏览器支持现代的HTML5特性。


  • JavaScript 框架:可以使用React、Vue.js等前端框架来简化开发过程。


  • CSS:用于美化页面和展示不同类型的数据。



Part4

实现流式返回


实现流式返回的方法有多种,常见的包括WebSocket、Server-Sent Events (SSE) 和 Fetch API with Streams。


WebSocket


WebSocket提供了在客户端和服务器之间建立全双工通信的能力,非常适合实时应用。


示例代码


constsocket =newWebSocket('ws://your-server-address');

socket.onopen =()=>{
console.log('WebSocket connection established');
};

socket.onmessage =(event) =>{
constdata =JSON.parse(event.data);
// 根据返回数据的类型处理不同的逻辑
if(data.type ==='text') {
displayText(data.content);
}elseif(data.type ==='image') {
displayImage(data.content);
}
};

socket.onclose =()=>{
console.log('WebSocket connection closed');
};

functiondisplayText(text){
consttextContainer =document.getElementById('text-container');
textContainer.innerText = text;
}

functiondisplayImage(imageUrl){
constimageContainer =document.getElementById('image-container');
constimg =document.createElement('img');
img.src = imageUrl;
imageContainer.appendChild(img);
}


Server-Sent Events (SSE)


SSE允许服务器向客户端推送实时更新,适用于需要频繁更新的场景。


示例代码


consteventSource =newEventSource('/stream');

eventSource.onmessage =(event) =>{
constdata =JSON.parse(event.data);
if(data.type ==='text') {
displayText(data.content);
}elseif(data.type ==='image') {
displayImage(data.content);
}
};

functiondisplayText(text){
consttextContainer =document.getElementById('text-container');
textContainer.innerText = text;
}

functiondisplayImage(imageUrl){
constimageContainer =document.getElementById('image-container');
constimg =document.createElement('img');
img.src = imageUrl;
imageContainer.appendChild(img);
}


Fetch API with Streams


Fetch API支持流式响应,可以用来处理较大数据量的返回。


示例代码


fetch('/stream-endpoint')
.then(response=>{
constreader = response.body.getReader();
constdecoder =newTextDecoder();
functionread(){
reader.read().then(({ done, value }) =>{
if(done) {
console.log('Stream complete');
return;
}
constdata =JSON.parse(decoder.decode(value));
if(data.type ==='text') {
displayText(data.content);
}elseif(data.type ==='image') {
displayImage(data.content);
}
read();
});
}
read();
});

functiondisplayText(text){
consttextContainer =document.getElementById('text-container');
textContainer.innerText = text;
}

functiondisplayImage(imageUrl){
constimageContainer =document.getElementById('image-container');
constimg =document.createElement('img');
img.src = imageUrl;
imageContainer.appendChild(img);
}



Part5

多模态支持


为了支持多模态大模型,需要在前端页面中处理不同类型的数据并动态渲染。可以通过解析返回数据的类型字段,并根据类型选择不同的渲染方式。


示例代码


functionhandleData(data){
if(data.type ==='text') {
displayText(data.content);
}elseif(data.type ==='image') {
displayImage(data.content);
}elseif(data.type ==='audio') {
displayAudio(data.content);
}elseif(data.type ==='video') {
displayVideo(data.content);
}
}

functiondisplayText(text){
consttextContainer =document.getElementById('text-container');
textContainer.innerText = text;
}

functiondisplayImage(imageUrl){
constimageContainer =document.getElementById('image-container');
constimg =document.createElement('img');
img.src = imageUrl;
imageContainer.appendChild(img);
}

functiondisplayAudio(audioUrl){
constaudioContainer =document.getElementById('audio-container');
constaudio =document.createElement('audio');
audio.controls =true;
audio.src = audioUrl;
audioContainer.appendChild(audio);
}

functiondisplayVideo(videoUrl){
constvideoContainer =document.getElementById('video-container');
constvideo =document.createElement('video');
video.controls =true;
video.src = videoUrl;
videoContainer.appendChild(video);
}



Part6

总结


通过流式传输,使模型在token可用时立即开始返回, 而不是等待整个token序列生成完毕。虽然这并不会改变获取所有token所需的时间,但它减少了获取第一个token的时间,对于希望显示部分进展或可能会中途停止生成的应用程序来说,这是一个更好的用户体验。


本文介绍了如何使用WebSocket、Server-Sent Events以及Fetch API with Streams实现流式数据传输,并提供了具体的实现步骤和示例代码。希望这些方法和示例能够帮助你在前端应用中更好地支持大语言模型的输出。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ