返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

web-llm,关于高性能浏览器内 LLM 推理引擎

[复制链接]
链载Ai 显示全部楼层 发表于 4 小时前 |阅读模式 打印 上一主题 下一主题

WebLLM 是一款高性能的浏览器内 LLM 推理引擎,它通过硬件加速将语言模型推理直接引入 Web 浏览器。一切都在浏览器内部运行,无需服务器支持,并通过 WebGPU 加速。

WebLLM与OpenAI API完全兼容。也就是说,您可以在本地对任何开源模型使用相同的 OpenAI API ,其功能包括 json-mode、函数调用、流式传输等。

我们可以带来很多有趣的机会,为每个人构建 AI 助手,并在享受 GPU 加速的同时保护隐私。

您可以使用 WebLLM 作为基础npm 包,并按照文档和查看入门指南在其上构建自己的 Web 应用程序。该项目是MLC LLM的配套项目,可实现 LLM 在硬件环境中的通用部署。

github:https://github.com/mlc-ai/web-llm‍‍‍‍‍‍


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ