返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

太酷了!iPhone、iPad、MacBook老旧设备组成异构集群,能跑Llama 3

[复制链接]
链载Ai 显示全部楼层 发表于 5 小时前 |阅读模式 打印 上一主题 下一主题

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;background-color: rgb(255, 255, 255);visibility: visible;">
假如你有闲置的设备,或许可以试一试。

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;letter-spacing: 0.544px;background-color: rgb(255, 255, 255);visibility: visible;margin-top: 0px;margin-bottom: 0px;line-height: 1.75em;">

这次,你手里的硬件设备也能在 AI 领域大展拳脚了。


将 iPhone、iPad、Macbook 进行组合,就能组装成「异构集群推理方案」, 然后顺畅的运行 Llama3 模型。


值得一提的是,这个异构集群可以是 Windows 系统,也可以是Linux、iOS 系统,并且对 Android 的支持很快到来。


异‍构‍集群正在运行中。‍

根据项目作者 @evilsocket 的介绍,这个异构集群包括 iPhone 15 Pro Max、iPad Pro、MacBook Pro (M1 Max)、NVIDIA GeForce 3080、2x NVIDIA Titan X Pascal。所有代码都已经上传到 GitHub。


看到这,网友纷纷表示,这位老哥确实不简单。


不过也有网友开始担心能耗问题,暂且不管速度,电费都耗不起。来回搬数据,损耗太大了。


项目介绍


上述功能的实现,离不开一个名为 Cake 的 Rust 框架。Cake 可以完成大模型(例如 Llama3)的分布式推理,旨在将消费级硬件组合成异构集群,其中消费级硬件采用多种操作系统,包括:iOS、Android、macOS、Linux 和 Windows,从而使 AI 更易于访问。


项目地址:https://github.com/evilsocket/cake


Cake 的主要思路是将 transformer 块分片到多个设备,以便能够让通常不适合单个设备 GPU 内存的模型运行推理。对同一工作线程上的连续 transformer 块的推理是分批进行的,以便最大限度地减少数据传输造成的延迟。


Cake 目前支持的系统和设备如下:


编译


安装 Rust 后,运行下列代码:


cargobuild--release


假如用户想要在应用程序中生成 iOS 绑定,可以进行下述操作:


makeios


使用


运行 worker 节点:


cake-cli--model/path/to/Meta-Llama-3-8B\#modelpath,readbelowonhowtooptimizemodelsizeforworkers--modeworker\#runasworker--nameworker0\#workernameintopologyfile--topologytopology.yml\#topology--address0.0.0.0:10128#bindaddress


运行 master 节点:


cake-cli--model/path/to/Meta-Llama-3-8B\--topologytopology.yml


其中 topology.yml 确定哪些层由哪个 worker 提供服务:


linux_server_1:host:'linux_server.host:10128'description:'NVIDIATitanXPascal(12GB)'layers:-'model.layers.0-5'linux_server_2:host:'linux_server2.host:10128'description:'NVIDIAGeForce3080(10GB)'layers:-'model.layers.6-16'iphone:host:'iphone.host:10128'description:'iPhone15ProMax'layers:-'model.layers.17'ipad:host:'ipad.host:10128'description:'iPad'layers:-'model.layers.18-19'macbook:host:'macbook.host:10128'description:'M1Max'layers:-'model.layers.20-31'


关于内存和磁盘空间优化问题,用户可能希望只向 worker 提供模型中实际需要的数据,而不是整个文件夹,在这种情况下,可以使用 cake-split-model 。例如,要生成较小版本的 llama3 safetensors,可以采用如下代码:


cake-split-model--model-pathpath/to/Meta-Llama-3-8B\#sourcemodeltosplit--topologypath/to/topology.yml\#topologyfile--outputoutput-folder-name


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ