将网站转变为大模型训练数据的神器:自动化爬虫工具FireCrawl,两周斩获4K Star!

本文主要是介绍将网站转变为大模型训练数据的神器:自动化爬虫工具FireCrawl,两周斩获4K Star!,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

cover_image

将网站转变为大模型训练数据的神器:自动化爬虫工具FireCrawl,两周斩获4K Star!

原文链接:(更好排版、视频播放、社群交流、最新AI开源项目、AI工具分享都在这个公众号!)

🔥将整个网站转变为适用于 ** 大模型训练 ** 的 Markdown 或结构化数据。使用单个 API 进行抓取、爬行、搜索和提取。 ****

Hello,大家好,我是Aitrainee。今天给大家介绍一下Firecrawl,这是一个实用的爬虫工具。

Firecrawl 是什么?

Firecrawl就像一个 智能机器人 ,从你给定的网页开始,自动找到并访问这个网站上的所有其他页面。它会提取每个页面中的主要内容, **
去掉广告 ** 和其他不需要的东西,然后把这些信息整理好,让你方便使用。而且,它不需要网站提供的地图文件来找到这些页面。

Firecrawl可以从你 ** 指定的网页 ** 开始,自动访问这个网站上所有能打开的子页面。就像你点开一个链接后,它会继续点开这个页面里的
所有链接
,直到把所有页面都访问一遍。只要这些页面没有被网站的设置阻止(比如没有被robots.txt文件禁止访问),Firecrawl就能爬取它们。

此外,Firecrawl还会从每个页面中提取有用的信息,去掉不重要的内容(比如广告和导航栏),并把这些数据整理成 易于使用
的格式,比如Markdown。

站点地图是什么?

站点地图(sitemap)是一个网站提供的文件,列出网站上的所有页面。它帮助搜索引擎或爬虫更快地找到和访问这些页面。站点地图通常是一个XML文件,里面包含网站上所有页面的链接。

总结一下:

  1. 1. Firecrawl 会自动从你给定的网页开始,遍历网站上的所有链接,爬取所有能访问的页面。

  2. 2. 它会去除 杂乱信息 ,提取有用的数据并整理好。

  3. 3. 无需 站点地图 ,Firecrawl也能找到并爬取所有页面。

演示视频

油管博主:开发者文稿 / 字幕译:Aitrainee, ** 链接在这里 ** :

https://www.youtube.com/watch?v=fDSM7chMo5E

下面提供官方的 文档介绍、相关资源、部署教程 等,进一步支撑你的行动,以提升本文的帮助力。

🔥 Firecrawl

我们提供了易于使用的API托管版本。您可以在 这里 找到演示和文档。您也可以自行托管后台服务。

  • • API

  • • Python SDK

  • • Node SDK

  • • Langchain集成 🦜🔗

  • • Llama Index集成 🦙

  • • Langchain JS集成 🦜🔗

  • • 想要其他SDK或集成?请通过打开issue告知我们。

要在本地运行,请参考 指南 。

API密钥

要使用API,您需要在 Firecrawl 注册并获取API密钥。

爬取

用于爬取一个URL及其所有可访问的子页面。此操作提交一个爬取任务并返回一个作业ID以检查爬取状态。

curl -X POST https://api.firecrawl.dev/v0/crawl \  -H 'Content-Type: application/json' \  -H 'Authorization: Bearer YOUR_API_KEY' \  -d '{  "url": "https://mendable.ai"  }'

返回一个作业ID

{ "jobId": "1234-5678-9101" }

检查爬取作业

用于检查爬取作业的状态并获取其结果。

curl -X GET https://api.firecrawl.dev/v0/crawl/status/1234-5678-9101 \  -H 'Content-Type: application/json' \  -H 'Authorization: Bearer YOUR_API_KEY'{  "status": "completed",  "current": 22,  "total": 22,  "data": [  {  "content": "Raw Content ",  "markdown": "# Markdown Content",  "provider": "web-scraper",  "metadata": {  "title": "Mendable | AI for CX and Sales",  "description": "AI for CX and Sales",  "language": null,  "sourceURL": "https://www.mendable.ai/"  }  }  ]  
}

爬取

用于爬取一个URL并获取其内容。

curl -X POST https://api.firecrawl.dev/v0/scrape \  -H 'Content-Type: application/json' \  -H 'Authorization: Bearer YOUR_API_KEY' \  -d '{  "url": "https://mendable.ai"  }'

响应:

{  "success": true,  "data": {  "content": "Raw Content ",  "markdown": "# Markdown Content",  "provider": "web-scraper",  "metadata": {  "title": "Mendable | AI for CX and Sales",  "description": "AI for CX and Sales",  "language": null,  "sourceURL": "https://www.mendable.ai/"  }  }  
}

搜索(测试版)

用于搜索网络,获取最相关的结果,爬取每个页面并返回Markdown格式的数据。

curl -X POST https://api.firecrawl.dev/v0/search \  -H 'Content-Type: application/json' \  -H 'Authorization: Bearer YOUR_API_KEY' \  -d '{  "query": "firecrawl",  "pageOptions": {  "fetchPageContent": true // 设置为false可快速获取搜索引擎结果页面  }  }'{  "success": true,  "data": [  {  "url": "https://mendable.ai",  "markdown": "# Markdown Content",  "provider": "web-scraper",  "metadata": {  "title": "Mendable | AI for CX and Sales",  "description": "AI for CX and Sales",  "language": null,  "sourceURL": "https://www.mendable.ai/"  }  }  ]  
}

智能提取(测试版)

用于从爬取的页面中提取结构化数据。

curl -X POST https://api.firecrawl.dev/v0/scrape \  -H 'Content-Type: application/json' \  -H 'Authorization: Bearer YOUR_API_KEY' \  -d '{  "url": "https://www.mendable.ai/",  "extractorOptions": {  "mode": "llm-extraction",  "extractionPrompt": "Based on the information on the page, extract the information from the schema. ",  "extractionSchema": {  "type": "object",  "properties": {  "company_mission": {  "type": "string"  },  "supports_sso": {  "type": "boolean"  },  "is_open_source": {  "type": "boolean"  },  "is_in_yc": {  "type": "boolean"  }  },  "required": [  "company_mission",  "supports_sso",  "is_open_source",  "is_in_yc"  ]  }  }  }'{  "success": true,  "data": {  "content": "Raw Content",  "metadata": {  "title": "Mendable",  "description": "Mendable allows you to easily build AI chat applications. Ingest, customize, then deploy with one line of code anywhere you want. Brought to you by SideGuide",  "robots": "follow, index",  "ogTitle": "Mendable",  "ogDescription": "Mendable allows you to easily build AI chat applications. Ingest, customize, then deploy with one line of code anywhere you want. Brought to you by SideGuide",  "ogUrl": "https://mendable.ai/",  "ogImage": "https://mendable.ai/mendable_new_og1.png",  "ogLocaleAlternate": [],  "ogSiteName": "Mendable",  "sourceURL": "https://mendable.ai/"  },  "llm_extraction": {  "company_mission": "Train a secure AI on your technical resources that answers customer and employee questions so your team doesn't have to",  "supports_sso": true,  "is_open_source": false,  "is_in_yc": true  }  }  
}

使用Python SDK

安装Python SDK

pip install firecrawl-py

爬取一个网站

from firecrawl import FirecrawlApp  app = FirecrawlApp(api_key="YOUR_API_KEY")  crawl_result = app.crawl_url('mendable.ai', {'crawlerOptions': {'excludes': ['blog/*']}})  # 获取Markdown内容  
for result in crawl_result:  print(result['markdown'])

爬取一个URL

要爬取单个URL,请使用 scrape_url 方法。它接收URL作为参数并返回爬取的数据字典。

url = 'https://example.com'  
scraped_data = app.scrape_url(url)

从URL中提取结构化数据

通过LLM提取,您可以轻松地从任何URL中提取结构化数据。我们支持Pydantic模型,使其更容易使用。以下是使用方法:

class ArticleSchema(BaseModel):  title: str  points: int   by: str  commentsURL: str  class TopArticlesSchema(BaseModel):  top: List[ArticleSchema] = Field(..., max_items=5, description="Top 5  stories")  data = app.scrape_url('https://news.ycombinator.com', {  'extractorOptions': {  'extractionSchema': TopArticlesSchema.model_json_schema(),  'mode': 'llm-extraction'  },  'pageOptions':{  'onlyMainContent': True  }  
})  
print(data["llm_extraction"])

搜索查询

执行网络搜索,获取顶级结果,提取每个页面的数据,并返回它们的Markdown格式内容。

query = 'What is Mendable?'  
search_result = app.search(query)

使用Node SDK

安装

要安装Firecrawl Node SDK,可以使用npm:

npm install @mendable/firecrawl-js

使用方法

  1. 1. 从 firecrawl.dev 获取API密钥。

  2. 2. 将API密钥设置为环境变量 FIRECRAWL_API_KEY ,或将其作为参数传递给 FirecrawlApp 类。

爬取URL

要爬取单个URL并进行错误处理,请使用 scrapeUrl 方法。它接收URL作为参数并返回爬取的数据字典。

try {  const url = 'https://example.com';  const scrapedData = await app.scrapeUrl(url);  console.log(scrapedData);  
} catch (error) {  console.error(  'Error occurred while scraping:',  error.message  );  
}

爬取网站

要爬取网站并进行错误处理,请使用 crawlUrl 方法。它接收起始URL和可选参数作为参数。 params
参数允许您指定爬取任务的附加选项,例如最大爬取页面数、允许的域和输出格式。

const crawlUrl = 'https://example.com';  
const params = {  crawlerOptions: {  excludes: ['blog/'],  includes: [], // 留空以包含所有页面  limit: 1000,  },  pageOptions: {  onlyMainContent: true  }  
};  
const waitUntilDone = true;  
const timeout = 5;  
const crawlResult = await app.crawlUrl(  crawlUrl,  params,  waitUntilDone,  timeout  
);

检查爬取状态

要检查爬取任务的状态并进行错误处理,请使用 checkCrawlStatus 方法。它接收作业ID作为参数并返回爬取任务的当前状态。

const status = await app.checkCrawlStatus(jobId);  
console.log(status);

从URL中提取结构化数据

通过LLM提取,您可以轻松地从任何URL中提取结构化数据。我们支持zod模式,使其更容易使用。以下是使用方法:

import FirecrawlApp from "@mendable/firecrawl-js";  
import { z } from "zod";  const app = new FirecrawlApp({  apiKey: "fc-YOUR_API_KEY",  
});  // 定义要提取内容的模式  
const schema = z.object({  top: z  .array(  z.object({  title: z.string(),  points: z.number(),  by: z.string(),  commentsURL: z.string(),  })  )  .length(5)  .describe("Hacker News上的前5个故事"),  
});  const scrapeResult = await app.scrapeUrl("https://news.ycombinator.com", {  extractorOptions: { extractionSchema: schema },  
});  console.log(scrapeResult.data["llm_extraction"]);

搜索查询

通过 search 方法,您可以在搜索引擎中搜索查询并获取顶级结果及每个结果的页面内容。该方法接收查询作为参数并返回搜索结果。

const query = 'what is mendable?';  
const searchResults = await app.search(query, {  pageOptions: {  fetchPageContent: true // 获取每个搜索结果的页面内容  }  
});

参考链接:
[1]https://github.com/mendableai/firecrawl

知音难求,自我修炼亦艰

抓住前沿技术的机遇,与我们一起成为创新的超级个体

(把握AIGC时代的个人力量)

**
**

** 点这里👇关注我,记得标星哦~ **

**
**

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

预览时标签不可点

微信扫一扫
关注该公众号

轻触阅读原文

AI进修生



收藏

这篇关于将网站转变为大模型训练数据的神器:自动化爬虫工具FireCrawl,两周斩获4K Star!的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1037396

相关文章

基于Java实现回调监听工具类

《基于Java实现回调监听工具类》这篇文章主要为大家详细介绍了如何基于Java实现一个回调监听工具类,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录监听接口类 Listenable实际用法打印结果首先,会用到 函数式接口 Consumer, 通过这个可以解耦回调方法,下面先写一个

使用Python构建一个Hexo博客发布工具

《使用Python构建一个Hexo博客发布工具》虽然Hexo的命令行工具非常强大,但对于日常的博客撰写和发布过程,我总觉得缺少一个直观的图形界面来简化操作,下面我们就来看看如何使用Python构建一个... 目录引言Hexo博客系统简介设计需求技术选择代码实现主框架界面设计核心功能实现1. 发布文章2. 加

SpringBoot集成Milvus实现数据增删改查功能

《SpringBoot集成Milvus实现数据增删改查功能》milvus支持的语言比较多,支持python,Java,Go,node等开发语言,本文主要介绍如何使用Java语言,采用springboo... 目录1、Milvus基本概念2、添加maven依赖3、配置yml文件4、创建MilvusClient

JS+HTML实现在线图片水印添加工具

《JS+HTML实现在线图片水印添加工具》在社交媒体和内容创作日益频繁的今天,如何保护原创内容、展示品牌身份成了一个不得不面对的问题,本文将实现一个完全基于HTML+CSS构建的现代化图片水印在线工具... 目录概述功能亮点使用方法技术解析延伸思考运行效果项目源码下载总结概述在社交媒体和内容创作日益频繁的

基于Python打造一个全能文本处理工具

《基于Python打造一个全能文本处理工具》:本文主要介绍一个基于Python+Tkinter开发的全功能本地化文本处理工具,它不仅具备基础的格式转换功能,更集成了中文特色处理等实用功能,有需要的... 目录1. 概述:当文本处理遇上python图形界面2. 功能全景图:六大核心模块解析3.运行效果4. 相

springboot项目中常用的工具类和api详解

《springboot项目中常用的工具类和api详解》在SpringBoot项目中,开发者通常会依赖一些工具类和API来简化开发、提高效率,以下是一些常用的工具类及其典型应用场景,涵盖Spring原生... 目录1. Spring Framework 自带工具类(1) StringUtils(2) Coll

SpringValidation数据校验之约束注解与分组校验方式

《SpringValidation数据校验之约束注解与分组校验方式》本文将深入探讨SpringValidation的核心功能,帮助开发者掌握约束注解的使用技巧和分组校验的高级应用,从而构建更加健壮和可... 目录引言一、Spring Validation基础架构1.1 jsR-380标准与Spring整合1

MySQL 中查询 VARCHAR 类型 JSON 数据的问题记录

《MySQL中查询VARCHAR类型JSON数据的问题记录》在数据库设计中,有时我们会将JSON数据存储在VARCHAR或TEXT类型字段中,本文将详细介绍如何在MySQL中有效查询存储为V... 目录一、问题背景二、mysql jsON 函数2.1 常用 JSON 函数三、查询示例3.1 基本查询3.2

SpringBatch数据写入实现

《SpringBatch数据写入实现》SpringBatch通过ItemWriter接口及其丰富的实现,提供了强大的数据写入能力,本文主要介绍了SpringBatch数据写入实现,具有一定的参考价值,... 目录python引言一、ItemWriter核心概念二、数据库写入实现三、文件写入实现四、多目标写入

使用Python将JSON,XML和YAML数据写入Excel文件

《使用Python将JSON,XML和YAML数据写入Excel文件》JSON、XML和YAML作为主流结构化数据格式,因其层次化表达能力和跨平台兼容性,已成为系统间数据交换的通用载体,本文将介绍如何... 目录如何使用python写入数据到Excel工作表用Python导入jsON数据到Excel工作表用