链载Ai

标题: 构建个性化AI,由您所见、所说、所听驱动,支持Ollama [打印本页]

作者: 链载Ai    时间: 前天 16:10
标题: 构建个性化AI,由您所见、所说、所听驱动,支持Ollama

项目简介

构建一个可靠的数据流,其中包括音频和截图信息,用户只需点击按钮,脚本便全天候在后台运行,收集并提取屏幕和音频输入/输出的数据,这可能会让人感到沮丧。

在这一层之上可以构建出无数的应用场景。为了简化其他开发者的任务,我们决定解决这个问题。它还处于早期阶段,但已经可以端到端运行。我们全职在做这个项目,非常希望听到您的反馈和建议。

开始

安装 screenpipe 的方法有多种:Translated Text:


PS:我们投资了付费应用收入的 80%在赏金上,发布 PR,赚钱!

这是安装命令行界面的说明。

努力让它运行起来吗?我将在 15 分钟的通话中与你一起安装它。


默认情况下,数据存储在$HOME/.screenpipe(在 Windows 上为C:\AppData\Users\<user>\.screenpipe)中,您可以使用--data-dir <mydir>进行更改


使用方法

您可以使用终端命令查询和查看如下的数据。同时,我们推荐使用 Tableplus.com 来查看数据库,它提供免费版本。

Here's a pseudo code to illustrate how to use screenpipe, after a meeting for example (automatically with our webhooks):
以下是用于说明如何使用 screenpipe 的伪代码示例,例如会议之后(通过我们的 Webhooks 自动执行):```python # 引入 screenpipe 库 import screenpipe # 初始化 screenpipe screenpipe.init() # 定义 Webhooks 事件处理函数 def webhook_event_handler(event): # 根据事件类型执行相应的操作 if event.type == 'meeting_end': # 在会议结束时执行的操作 print("会议结束,执行相关操作...") else: # 其他事件类型 print("其他事件类型:", event.type) # 注册 Webhooks 事件处理函数 screenpipe.register_webhook_event_handler(webhook_event_handler) # 开始监听 Webhooks 事件 screenpipe.start_listening() ``` 请注意,上述代码是一个示例,实际使用时需要根据 screenpipe 库的具体 API 和功能进行调整


// 1h agoconst startDate = "<some time 1h ago..>"// 10m agoconst endDate = "<some time 10m ago..>"
// get all the screen & mic data from roughly last hour const results = fetchScreenpipe(startDate, endDate)
// send it to an LLM and ask for a summaryconst summary = fetchOllama("{results} create a summary from these transcriptions")// or const summary = fetchOpenai(results)
// add the meeting summary to your notesaddToNotion(summary)// or your favourite note taking app

或者成千上万种其他使用方式,利用你所有的屏幕和麦克风数据!


应用场景:

搜索






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5