链载Ai

标题: AI时代新爬虫:网站自动转LLM数据,firecrawl深度玩法解读 [打印本页]

作者: 链载Ai    时间: 昨天 10:15
标题: AI时代新爬虫:网站自动转LLM数据,firecrawl深度玩法解读



ingFang SC";font-weight: bold;color: rgb(255, 255, 255);line-height: 22px;">firecrawl 是什么



FireCrawl是一款创新的爬虫工具,它能够无需站点地图,抓取任何网站的所有可访问子页面。与传统爬虫工具相比,FireCrawl特别擅长处理使用JavaScript动态生成内容的网站,并且可以转换为LLM-ready的数据。

此外,它还提供了一个易于使用的API,让开发者能够轻松实现内容的爬取和转换。

可以先通过FireCrawl 提供的playground来快速体验下。

最简单的情况下,只需要填一个URL就可以,firecrawl会抓取到相关的内容,还可以通过LLM来提取信息。使用firecrawl的在线服务是需要付费的,免费的只有500credit,所以接下来我们看下如何自己本地运行。

ingFang SC";font-weight: bold;color: rgb(255, 255, 255);line-height: 22px;">本地运行



项目的介绍中说了,目前还在早期阶段,不建议自己部署,如果想要跑可以源码启动。首先需要准备本地的环境:

nodejspnpmRedis

然后在 /apps/api/ 下建一个 .env文件,可以从.env.example拷贝一个,.env.example中包括了项目可以使用的各种配置,内容很多。如果只是本地最简单运行的话,内容参考如下:

# ===== Required ENVS ======NUM_WORKERS_PER_QUEUE=8PORT=3002HOST=0.0.0.0REDIS_URL=redis://localhost:6379
## To turn on DB authentication, you need to set up supabase.USE_DB_AUTHENTICATION=false

之后就是安装依赖。

pnpminstall

接下来启动项目,这里启动需要涉及3个部分的内容。

启动Redis,在项目目录下打开一个终端,之后启动Redis即可

redis-server

启动worker,worker是具体执行爬虫任务的,在项目的 /apps/api/ 路径下,执行命令:

pnpmrunworkers

启动主服务,还是在项目的 /apps/api/ 路径下,执行命令

pnpmrunstart

到这里我们就在本地运行了firecrawl,可以向3002端口发个请求来确认服务已经运行

curl-XGET<http://localhost:3002/test>

也可以访问 http://0.0.0.0:3002/admin//queues ,查看firecrawl的管理后台。

ingFang SC";font-weight: bold;color: rgb(255, 255, 255);line-height: 22px;">使用firecrawl



部署好了之后,我们就来详细看下如何使用吧。

scrape

首先我们可以通过REST API的方式向firecrawl发送指令,我们首先可以使用 /scrape 这个API来抓取一下他们自己公司的网站,使用如以下curl命令:

curl-XPOST<https://api.firecrawl.dev/v0/scrape>\\-H'Content-Type:application/json'\\-d'{"url":"<https://mendable.ai>"}'

当然也可以通过各种API工具来发送,使用体验会更好一些。

crawl

除了单个网页的抓取,firecrawl还可以抓取多个页面,使用/crawl API ,您给出要抓取的基本 URL,所有可访问的子页面都将被抓取。

curl-XPOST<https://api.firecrawl.dev/v0/crawl>\\-H'Content-Type:application/json'\\-d'{"url":"<https://mendable.ai>","pageOptions":{"onlyMainContent":true,"includeHtml":true,"screenshot":true,"waitFor":5000},"crawlerOptions":{"includes":["/blog/*","/products/*"],"maxDepth":3,"mode":"fast",}}'

在此示例中,爬虫将完成以下功能:

/crawl 不会直接返回结果,发送命令后会返回对应任务的JobID,之后的任务是会在后台执行,可以在前面展示过的管理后台里查看任务的运行情况。

关于API的所有参数选项,可以到文档中查看。




结合大模型



首先 firecrawl 支持对抓取的内容进行大模型提取,利用大模型的能力,直接将抓取结果按预期进行格式化处理。如果想使用这个能力,首先要在.env里配置对应的API KEY。

我们在抓取的命令里,加入extractorOptions,参考如下:

"extractorOptions":{"mode":"llm-extraction","extractionPrompt":"Basedontheinformationonthepage,extracttheinformationfromtheschema.","extractionSchema":{"type":"object","properties":{"company_mission":{"type":"string"},"supports_sso":{"type":"boolean"},"is_open_source":{"type":"boolean"},"is_in_yc":{"type":"boolean"}},"required":["company_mission","supports_sso","is_open_source","is_in_yc"]}}

这样再次执行后,可以看到结果的最后就会有提取的内容。




通过代码使用



除了这种方式以外,还可以通过代码的方式来使用firecrawl,目前支持

使用代码的方式会有更多的灵活性,可以更加方便的和自己的程序集成起来。下面是一个简单的例子,我用node sdk为例,先要安装:

npminstall@mendable/firecrawl-js

然后就可以在代码中使用了

constcrawlUrl='<https://example.com>';constparams={crawlerOptions:{excludes:['blog/'],includes:[],//leaveemptyforallpageslimit:1000,},pageOptions:{onlyMainContent:true}};constwaitUntilDone=true;consttimeout=5;constcrawlResult=awaitapp.crawlUrl(crawlUrl,params,waitUntilDone,timeout);

这里需要说的,默认情况下,官方的SDK中使用的是https://api.firecrawl.dev/ 的在线服务,如果你觉得没问题,那需要去网站上申请API key。

如果你想要使用自己本地启动的服务,那需要自己去修改一下SDK的实现,相关的代码在项目中都开了,大概在这里。

自己把相关内容修改一下,然后自己使用就可以了。





举个栗子



另外还有一些比较不错的玩法,比如使用 firecrawl 的 /search API来信息收集,之后快速转换成LLM-ready的数据。

首先 search的内容大概是这样的。

import FirecrawlApp from '@mendable/firecrawl-js';
//这里的API key根据自己需要了const app = new FirecrawlApp({ apiKey: 'YOUR_API_KEY' });const params = {searchOptions: {limit: 5,},pageOptions: {fetchPageContent: false}};
// Perform a searchconst result = await app.search('What is firecrawl?');

会拿到类似这样一个结果。

剩下就不一步步实现了接下来就简单说下思路:

ingFang SC";font-weight: bold;color: rgb(255, 255, 255);line-height: 22px;">总结



整体来说firecrawl的可玩性确实非常高,在AI和大模型的时代,给爬虫这个传统工具提供了一个非常有意思的新发展思路。如果你也感兴趣,可以自己动手来玩一玩,还是很有意思的。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5