DeepSeek 加速了模型平权,随之而来的是大模型推理需求的激增,大模型性能提升的主战场从训练转移到了推理。推理并发的提升,将催生计算、存储、网络、中间件、数据库等领域新的工程化需求。本文将分享 SSE 和 WebSocket 这两个大模型应用的标配网络通信协议,一起重新认识下这两位新时代里的老朋友。- 为什么大模型应用没有沿用 Web 类应用的主流通信协议?
- 为什么 SSE 和 WebSocket 更适合支持大模型应用?
What's Next? SSE(Server-Sent Events,服务器推送事件)是一种基于 HTTP 的网络通信协议,允许服务器向客户端单向推送实时数据。户端和服务端之间需要频繁地传输生成的内容。支持服务器可以一边生成结果,一边分块发送给客户端,这样用户就能逐步看到生成的内容,而不是等待服务端处理完所有内容才能看到。主要特点- 高效的单向通信:转为服务端到客户端的单向通信所设计,完美匹配大模型场景(客户端发送一次请求,服务端持续返回流式结果)。
- 低延迟:每次生成一个逻辑段落或标记(token)即可立即推送,避免传统 HTTP 请求-响应模式的长等待。
- 轻量协议:基于HTTP/HTTPS,无需额外协议握手(如 WebSocket 的双向协商),减少连接开销。
WebSocket 是一种网络通信协议,允许在客户端和服务器之间建立全双工、持久的连接,实现实时、双向的数据传输。不同于 SSE,WebSocket 连接一旦建立,双方可以随时发送数据,实效性更强,即无须等待服务端返回内容,客户端就能发起请求,适用于多人在线游戏操作实时同步、社交软件的聊天室、在线文档多人同时编辑等。主要特点是:大模型应用出现前,互联网在线应用以 Web 类应用为主,基于浏览器运行,通常通过 HTTP/HTTPS 协议与服务器通信,例如电商应用、新零售/新金融/出行等交易类应用,教育、传媒、医疗等行业应用,以及公共网站、CRM 等企业内部应用,适用范围非常广泛。其中,HTTPS 是 HTTP 的安全版本,通过 SSL/TLS 协议,对传输数据进行加密保护,加解密过程中会带来一些性能损耗。HTTPS 是一种无状态的、应用层的协议,用于在客户端(如浏览器)和服务器之间传输超文本(如 HTML 文件、图片、视频等),具有以下特点:基于请求-响应模型。 - 无状态:每次请求都是独立的,服务器不会保存客户端的状态。
- 数据加密,防止数据被窃听或篡改;身份验证,确保客户端与正确的服务器通信;数据完整性,防止数据在传输过程中被修改。(HTTP 是明文传输)
- 安全和合规性:通过加密技术保护数据传输,防止窃听和篡改;符合现代网络安全标准(如 GDPR、PCI DSS)。
这里我们以 TLS 1.3 为例,通过一张图了解下 HTTPS 在客户端和服务端之间的握手过程。(TLS 1.3 简化了以往的握手过程,性能损耗更小、响应更快)为什么大模型应用没有沿用 Web 类应用的主流通信协议? 不同类型的大模型应用,对网络通信的需求不尽相同,但几乎都离不开以下需求:这些场景对实时性和双向通信有较高要求,沿用 Web 类应用的主流通信协议- HTTPS,将出现以下问题:虽然 HTTPS 已经发展到 HTTPS/2 和 HTTPS/3,在性能上了有了提升,但是面对大模型应用这类对实时性要求较高的场景,依旧不够原生,并未成为这类场景下的主流通信协议。为什么 SSE 和 WebSocket 更适合支持大模型应用? 1. 客户端发起 SSE 连接consteventSource=newEventSource('https://example.com/sse-endpoint');2. 服务器返回 HTTP 响应HTTP/1.1200OKContent-Type:text/event-streamCache-Control:no-cacheConnection:keep-alive - 服务器通过 HTTP 长连接持续推送数据,每条消息以
data:开头,以两个换行符\n\n结束。
data: {"message": "Hello"}
data: {"message": "World"}
4. 客户端处理数据- 客户端通过
EventSource的onmessage事件监听服务器推送的数据。
eventSource.onmessage=(event)=>{console.log('Receiveddata:',event.data);};5. 连接关闭或错误处理我们可以通过下方方式验证大模型 APP 使用的网络通信协议:- 调用 API 并检查响应头:
使用stream=True参数请求流式响应,通过开发者工具或curl查看返回的Content-Type,若为text/event-stream,则明确为 SSE。 示例命令:
curl-XPOST"https://api.deepseek.com/v1/chat/completions"\-H"Authorization:BearerYOUR_KEY"\-H"Content-Type:application/json"\-d'{"model":"deepseek-chat","messages":[{"role":"user","content":"Hello"}],"stream":true}'\-v#查看详细响应头<HTTP/1.1200OK<Content-Type:text/event-stream<Transfer-Encoding:chunked - 数据格式验证:
流式响应的数据体格式为data: {...}\n\n,符合 SSE 规范[1]。 示例响应片段:
data:{"id":"123","choices":[{"delta":{"content":"Hi"}}]}data:[DONE]1. 客户端发起 WebSocket 握手请求- 客户端通过 HTTP 请求发起 WebSocket 握手,请求头中包含以下字段:
Upgrade: websocket:表明客户端希望升级到 WebSocket 协议。Connection: Upgrade:表明客户端希望升级连接。Sec-WebSocket-Key:随机生成的 Base64 编码字符串,用于握手验证。
GET/ws-endpointHTTP/1.1Host:example.comUpgrade:websocketConnection:UpgradeSec-WebSocket-Key:dGhlIHNhbXBsZSBub25jZQ==Sec-WebSocket-Version:13 2. 服务器返回 WebSocket 握手响应- 服务器验证客户端的握手请求,并返回 HTTP 101 状态码(Switching Protocols),表示协议升级成功。
Upgrade: websocket:确认协议升级。Connection: Upgrade:确认连接升级。Sec-WebSocket-Accept:基于客户端的Sec-WebSocket-Key计算的值,用于验证握手。
HTTP/1.1101SwitchingProtocolsUpgrade:websocketConnection:UpgradeSec-WebSocket-Accept:s3pPLMBiTxaQ9kYGzzhZRbK+xOo= 3. WebSocket 连接建立- 握手成功后,HTTP 连接升级为 WebSocket 连接,客户端和服务器可以通过 WebSocket 协议进行双向通信。
4. 数据传输- 客户端和服务器通过 WebSocket 协议发送和接收数据帧(Frame)。数据帧可以是文本或二进制格式。
5. 连接关闭- 客户端或服务器可以主动发送关闭帧(Close Frame)来终止连接。
CloseFrame:-Code:1000(NormalClosure)-Reason:"Connectionclosedbyclient" 例如 OpenAI 的 Realtime API (适用于对实时性要求更高的场景,客户端在不需要等待服务端发送完内容后就能发起请求),推荐基于 WebSocket 协议,以支持低延迟的多模态交互,包括文本和音频输入输出。具有以下特征:[2]- 基于事件的通信:Realtime API 通过 WebSocket 进行有状态的事件驱动交互,客户端和服务器之间通过发送和接收 JSON 格式的事件进行通信135。
- 持久连接:WebSocket 协议使得 API 能够保持一个持续的双向连接,允许即时的数据流动,这对于实时对话和交互至关重要。
- 多模态支持:该 API 不仅支持文本输入,还可以处理音频数据,提供更加丰富和自然的用户体验。
可见,SSE 和 WebSocket 均能较好的支持大模型应用的实时性需求,前者更加轻量化,后者因为是双向通信在实时性要求更高的场景更有优势。这里我们通过一张表来比对下各个协议的特点。 | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | 需 WSS(WebSocket Secure)加密 | | | | | | | | | | 在线游戏、多人协作、实时性要求更高的大模型应用场景 | 总结来看,HTTP/1.1 适合传统网页和简单 API 请求,但性能较低。HTTP/2 适合现代高性能网页,解决了 HTTP/1.1 的队头阻塞问题,SSE 适合服务器主动推送实时数据的场景,如一问一答的大模型应用,WebSocket 适合需要双向实时通信的场景如在线游戏、多人协作、实时性要求更高的大模型应用场景(随时可以打断生成过程进行追问的场景,例如大模型实时辩论平台)。此外,WebRTC 也广泛应用于大模型应用场景,例如,当调用 Realtime API 时,OpenAI 官方推荐使用 WebSocket 或 WebRTC[3]。虽然 SSE 和 WebSocket 的特点,天然适合处理游戏、社交、大模型应用等有处理实时通信的场景。但是用户体量扩大后,依旧会遇到一些工程化上的技术挑战。如果把数据比作货物,HTTPS 是小型渡轮,适合短距离、少量的货物运输,SSE 和 WebSocket 则是大型货轮,适合长距离、大批量的货物运输。此时,网关是负责连接陆地和水域的中转大厅,控制船只的秩序和方向(路由、负载均衡),对货船进行安全检查(身份验证),还设置了应急和备用通道(流量管控、高可用保障)等。由于大型货轮不间断(长连接)的进入中转大厅,且单次访问数据量大、访问用户多,对扮演管理 SSE 和WebSocket 的连接建立和维护的网关,提出了更高的要求。以下罗列了具体的挑战和网关层的应对方案,方案部分仅供参考,工程上的问题没有唯一的答案,应结合业务和技术团队的实际情况,选择适合自己的方案。- 越是高速发展的应用,越是新兴应用,软件变更频率越高,网关升级是软件变更的重要组成部分。但是,网关的升级通常涉及服务重启、配置变更或网络切换等作用,这会直接影响 SSE 和 WebSocket 连接的稳定性。
- 服务扩容过程中(增加实例),现有的 SSE 和 WebSocket 可能无法连接到新实例,服务缩容过程中(减少实例),现有的 SSE 和 WebSocket 可能会因服务的下线而被强制关闭,这些对实时性要求比较高的应用,例如游戏、大模型实时聊天,都会带来用户体验的下降。
- 无损上下线能力:该能力在微服务变更时,应用比较广泛,可以有效降低版本发布和扩缩容的稳定性风险。常见于云产品的商业能力。例如,阿里云的云原生 API 网关提供了面向 HTTPS/WebSocket 的微服务治理能力。
- 客户端重连机制:在客户端设计自动重连机制,减少中断影响,和无损上下线一样,使用心跳包检测连接状态,一旦中断自动重连,此外,还可以在服务器端记录已发送的数据,实现断点续传。
- 协议切换机制:在 SSE 和 WebSocket 不可用时,回退到长轮询(Long Polling),不过这个依赖于网关本身是否支持这些长连接。
大模型经常需要处理长文本、以及图片、视频等多模态内容,对带宽的消耗远超 Web 类应用,导致内存快速上涨,同时带来更高的带宽成本。选择支持流式处理的网关(如 Higress),将生成的内容分块传输,减少单次传输的数据量。同时,采用压缩算法(如 Gzip),减少数据传输量,控制带宽成本。阿里云云原生 API 网关即将上线软硬一体化的内容压缩方案,带宽传输成本可下降20%+。技术挑战:相比 Web 类应用,大模型应用推理时消耗的计算资源更多。例如发生 DDoS 攻击时, Web 类应用应对攻击会消耗1:1的计算资源,大模型应用则会消耗1:x(x 远大于1) 的后端资源,导致大模型应在面对恶意攻击时,更加脆弱。应对方案:在网关层部署立体的防护措施,包括认证鉴权、安全防护、流量管控等。Higress 和商业版云原生 API 网关提供了丰富的开箱即用的插件,降低了用户的开发、适配和维护成本。如下是产品的插件市场。这些防护措施,不仅能提升面对恶意攻击系统的健壮性,在面对外部不规则流量时,还能提升系统的稳定性。大模型应用除了带来了 SSE 和 WebSocket 的使用频率越来越高,也在助推 API First 的理念。以往,在线应用都是通过 Service 来对外暴露提供能力,但大模型应用将通过 API 对外提供服务能力,除了基模类厂商已经通过提供 API 来服务广大开发者群体,大模型应用类厂商也开始提供 API 服务。例如,近日 Perplexity 将面向企业客户和开发人员推出其 AI 搜索的 API 服务——基础版 Sonar 和高级版 Sonar Pro,以允许企业和开发人员把 Perplexity 的生成式 AI 搜索工具构建到自己的应用中去。这样做的好处是:第一,Perplexity 可以因此让自己的 AI 搜索无处不在,而不只局限在它的应用与网站里。一个案例是其客户 Zoom:Sonar 允许 Zoom 的 AI 聊天机器人根据带有引文的网络搜索提供实时答案,而不需要 Zoom 的视频用户离开聊天窗口。 |