对于喜欢写笔记的用户来说,Notion 类工具绝对是神兵利器式的工具,有很多用户使用这类在线笔记工具的原因就在于,这类工具能很好地结合 AI 工具进行更好、更高效的写作。以 Notion AI 为例,其 AI 应用的热度一度力压 ChatGPT,也掀起了很多国产笔记工具的 AI 应用潮流,例如 FlowUs AI 、Wolai AI、WPS AI 等等。但由于审查原因,在线工具往往存在私密性得不到保障的原由,很多用户开始寻求本地化的笔记方案,例如 Obisidian 、SiyuanNote、Logseq、Outline 等等。
Ollama 是一个可以在本地启动并运行大语言模型的应用框架,是近期最火的大语言模型部署方案之一。通过 Ollama,可以通过一条命令就能在本地运行 Llama3 模型,并且可以根据系统配置进行基于 GPU 和 CPU 的推理(当然,使用 CPU 推理会占用极大的内存)。不仅如此,他还可以通过 Web API 的方式访问 WebUI 或提供类似于 OpenAI API 近似的服务。事实上,很多用户青睐的应用也在适配 Ollama,例如沉浸式翻译通过 Ollama 可以在本地运行大模型并执行翻译任务,而获取到优质的翻译效果。
如何在思源笔记中使用 Ollama
对于喜欢折腾的用户来说,Ollama 有适配 Obisdian 的插件方案,并且有官方博客进行教学:Leveraging LLMs in your Obsidian Notes · Ollama Blog
对于不太喜欢过度折腾的用户来说,思源笔记是一个很棒的本地笔记方案,用户可以按照类似于配置 OpenAI API Key 的方式,就能在思源笔记中使用本地 AI 大模型的应用。不过遗憾的是,目前 llama3-Chinese-chat 还不支持 Ollama 配置(有非官方的量化版本,效果感人,不建议使用),所以我们可以使用目前国产开源模型性能较好的 Qwen1.5:7B 模型作为演示。
安装 Ollama
在 Ollama 官网中点击下载 Ollama 程序并进行安装:Ollama.com
Ollama 官网
拉取模型
以 Windows 为例,当安装完毕后,通过组合键 Win+R 于运行页面中输入 cmd 打开命令提示符,在命令提示符中输入 ollama run + 模型名称 后即可拉取或启动大模型。例如拉取 Qwen1.5 - 7B 模型,则需要在命令提示符中输入: