链载Ai

标题: ollama v0.12.0 发布:引入云端大模型预览,支持本地与云端无缝融合 [打印本页]

作者: 链载Ai    时间: 前天 22:20
标题: ollama v0.12.0 发布:引入云端大模型预览,支持本地与云端无缝融合

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 14px;color: rgb(63, 63, 63);">

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 14px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">2025年9月18日,Ollama 发布了ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: inherit;color: rgb(15, 76, 129);">v0.12.0版本更新,本次更新带来了一个重量级的新特性——ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: inherit;color: rgb(15, 76, 129);">云端模型(Cloud Models)预览功能,使开发者不仅能在本地运行模型,还能直接调用云端算力运行超大模型,实现本地与云端的无缝协同。同时,本版本也对多种模型架构的支持、GPU 兼容性以及 API 行为做了重要优化。


ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;padding-left: 8px;color: rgb(63, 63, 63);">ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: inherit;color: rgb(15, 76, 129);">一、核心更新亮点

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;color: rgb(15, 76, 129);">ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: inherit;color: rgb(15, 76, 129);">1. 云端大模型(Cloud Models)预览

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 14px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">在 v0.12.0 中,Ollama 首次提供了云端推理能力,开发者可以运行体量更大的模型,而无需担心本地机器显存容量不足。云端模型通过ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: inherit;color: rgb(15, 76, 129);">数据中心级别硬件提供推理计算,同时保持了 Ollama 一贯的隐私与安全政策——不保留用户数据

通过云端模式,你可以直接调用如qwen3-coder:480b-cloudgpt-oss:120b-cloudDeepSeek-v3.1:671b-cloud等超大模型,并与本地工具链无缝集成。

示例运行命令:
.

ollamarunqwen3-coder:480b-cloud

当前可用的云端模型包括:


2. 新增模型架构支持


3. GPU 与性能优化


4. API 行为改进


二、使用方法

1. 安装或升级

下载最新 v0.12.0 版本后,即可使用云端功能。


2. 签到认证

云端推理需要在 Ollama 平台进行账号登录:
.

ollamasignin

退出登录:
.

ollamasignout

3. 运行云端模型

CLI 方式运行:
.

ollamarungpt-oss:120b-cloud

查看已拉取的模型列表:
.

ollamals

输出示例:
.

NAME           ID      SIZE    MODIFIED
gpt-oss:120b-cloud 569662207105 - 5seconds ago
deepseek-v3.1:671-cloud d3749919e45f - 2days ago
qwen3-coder:480b-cloud 11483b8f8765 - 2days ago

4. API 调用示例

JavaScript
.

importollama from"ollama";

constresponse = await ollama.chat({
model:"gpt-oss:120b-cloud",
messages: [{ role:"user", content:"天空为什么是蓝色的?"}],
});
console.log(response.message.content);

Python
.

importollama

response = ollama.chat(
model='gpt-oss:120b-cloud',
messages=[{'role':'user','content':'天空为什么是蓝色的?'}]
)
print(response['message']['content'])

cURL
.

curl http://localhost:11434/api/chat -d '{
"model":"gpt-oss:120b-cloud",
"messages": [{
"role":"user",
"content":"天空为什么是蓝色的?"
}],
"stream":false
}'

三、总结

Ollama v0.12.0 的发布,标志着该平台从本地推理走向了云端与本地融合的新阶段。这不仅解决了本地硬件性能不足的问题,还统一了 API 调用方式,使得开发者能够像使用本地模型一样,轻松调用超大规模云端模型。







欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5