|
本地 AI 模型的重要性本地部署 AI 模型可确保敏感文档始终保留在您的设备上,有效保障数据机密性并满足合规要求。 离线运行不仅避免网络延迟,还能为摘要生成、翻译及内容创作等任务提供快速响应。 Ollama 提供了一个轻量且可扩展的框架,支持多种本地大语言模型(LLM),包括Ollama系列、DeepSeek" data-itemshowtype="0" linktype="text" data-linktype="2">DeepSeek、Mistral 等,让您自由选择所需模型。 步骤 1. 安装 Homebrew(可选)首先,安装Homebrew(https://brew.sh/)这是 macOS 和 Linux 系统上的软件包管理器,可简化命令行工具的安装过程,并无需使用 sudo 权限。打开终端,运行以下命令开始安装: /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)" 步骤 2:安装 Ollama要安装 Ollama,请使用官方安装脚本: curl -fsSL https://ollama.com/install.sh | sh 或者,如果您使用 Homebrew,您可以通过运行以下命令来安装 Ollama: brew install ollama 安装完成后,Ollama 将提供一系列命令,用于在您的设备上管理、查看和运行本地模型。 步骤 3. 启动本地 AI 服务器 为使 ONLYOFFICE 能与本地 Ollama 服务器通信,需将其配置为接受来自网页应用的请求。 在终端中运行: export OLLAMA_ORIGINS=http://*,https://*
立即启动 Ollama 并在登录时重新启动: brew services start ollama
或者,如果你不想/不需要后台服务,你可以直接运行: ollama serve
步骤 4. 下载并运行模型打开一个新的终端窗口,拉取您需要的模型。例如,要安装并运行 Llama 3.2,请执行以下命令: ollama run llama3.2 下载完成后,模型将在本地自动启动。您可以根据需要安装多个模型,每个模型都会显示在 ONLYOFFICE 的模型选择列表中。如需了解更多可用模型,可访问Ollama 官方模型库进行查看:https://github.com/ollama/ollama 注意:安装前,请确保您的计算机有足够的内存和磁盘空间来安装模型。 步骤 5:在 ONLYOFFICE 中设置 AI 插件首先,为 ONLYOFFICE 编辑器安装 AI 插件。如果您已安装 AI 插件,请按照以下步骤操作。 在网页浏览器中打开任意 ONLYOFFICE 编辑器。前往插件->插件管理器,找到AI插件,然后点击安装 通过插件->后台插件激活插件。 步骤 6:添加 Ollama 模型在 ONLYOFFICE 中导航至AI选项卡,然后点击设置图标。在编辑 AI 模型下,点击+图标。 选择 Ollama 作为提供商,并将 URL 设置为http://localhost:11434. 从下拉菜单中选择您已安装的模型(例如 llama3.2:latest)并确认。 步骤 7:分配任务给 Ollama 模型返回到 AI 配置页面,从下拉列表中选择一个已安装的 AI 模型来执行特定任务(如文本处理、摘要生成或代码编写),然后保存设置。 现在,所选模型已连接并可在 ONLYOFFICE 编辑器中使用。 如何将 Ollama AI 模型与 ONLYOFFICE 编辑器结合使用完成 Ollama 设置并连接所需模型后,您即可直接在 ONLYOFFICE 编辑器中使用 AI 功能。点击“AI”选项卡,或右键选中文本,即可访问改写、解释、总结等智能功能。 执行操作后,您可以选择将结果替换原文、作为批注添加,或插入到文本下方。 您可以使用 AI 模型来: 为报告、博客文章或电子邮件生成新的内容或创意 即时摘要复杂的文档或文章 在不同语言之间翻译文本 提高写作清晰度和语法 获取快速编码帮助或示例(如果模型支持) 探索写作中术语的上下文和用法
请注意:AI 生成的内容由第三方模型提供,ONLYOFFICE 不对其准确性承担责任。建议您对涉及敏感或关键任务的结果进行仔细核对。
|