今天跟大家一起来聊聊本届 Google I/O 开发者大会上关于 Web AI 的主题分享:《Web AI: On-device machine learning models and tools for your next project》
传统上,人工智能和机器学习模型的计算任务大多在服务器上进行,需要通过云服务进行数据处理和计算。这种方式虽然功能强大,但存在延迟、隐私和成本等问题。而 Web AI 的概念是让这些计算任务直接在用户的设备上、通过浏览器来完成,这主要得益于现代 Web 技术的进步,如 WebAssembly 和 WebGPU 等技术的支持。这样,用户可以在不与外部服务器交互的情况下,即时获得 AI 服务,这无疑提升了用户体验,同时也为用户隐私提供了更强的保护。
Web AI 可以说是一组技术和技巧,用于在设备的 CPU 或 GPU 上在 Web 浏览器中客户端使用机器学习(ML)模型。所以我们可以使用 JavaScript 和其他 Web 技术构建,例如 WebAssembly 和 WebGPU 。
需要注意的是,Web AI 与服 Server AI 或 Cloud AI 明显不同,后者是模型在服务器上执行并通过 API 访问的方式。
在本次分享中,主要包括了下面三个方面
如何在浏览器中运行我们新的大型语言模型(LLM)以及运行模型对客户端的影响;
展望 Visual Blocks 的未来,更快地进行原型设计;
以及 Web 开发人员如何在 Chrome 中使用 JavaScript 来大规模使用 Web AI。
浏览器中的 LLM
谷歌的 Gemma Web 是一个新的开放模型,可以在用户设备的浏览器中运行,它是基于用来创建 Gemini 的相同研究和技术构建的。
通过在设备上使用 LLM ,与在云服务器上进行推断相比,可以显著的节省成本,同时还能增强用户隐私并减少延迟。浏览器中的生成式人工智能仍处于早期阶段,但随着硬件的不断发展(具有更高的 CPU 和 GPU 内存),我们预计会有更多的模型可用。