Scrapy-CrawlSpider-MySQL-猎云网

2023-10-24 20:20

本文主要是介绍Scrapy-CrawlSpider-MySQL-猎云网,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

scrapy爬取猎云网数据保存至mysql笔记

  • CrawlSpider爬虫:
  • 1.创建好相应的文档,文件
  • 2.对搭好的框架进行一个简单修改
  • 3.分析需求
  • 4.爬虫文件
  • 5.异步保存至mysql

CrawlSpider爬虫:

  1. 作用:可以定义规则,让Scrapy自动的去爬取我们想要的链接。而不必跟Spider类一样,手动的yield Request。
  2. 创建:scrapy genspider -t crawl [爬虫名] [域名]
  3. 提取的两个类:
    • LinkExtrator:用来定义需要爬取的url规则。
    • Rule:用来定义这个url爬取后的处理方式,比如是否需要跟进,是否需要执行回调函数等。

关于scrapy框架的搭建问题,有个小小的建议,可以先将这四个库先安装好

lxml,pyopenssl,twisted,pywin32 

然后直接下载就好

pip install scrapy

ok,环境问题我们就已经解决了,接下来我们可以愉快的学习了。

1.创建好相应的文档,文件

我们先创建一个文件夹取名为 “my猎云网”,然后打开cmd跳转至当前路径输入cmd命令,创建一下项目:

scrapy startproject lyw

然后根据提示输入:

cd lyw

ok,接下来我们要创建一个CrawlSpider爬虫,出入cmd命令:

scrapy genspider -t crawl lyw_spider lieyunwang.org

在这里插入图片描述
好的这样的话我们就创建了一个CrawlSpider爬虫,接下来将我们的项目通过pycharm打开。
我们先看一下这些文件都是什么

在这里插入图片描述## 项目文件作用:

  1. settings.py:用来配置爬虫的。
  2. middlewares.py:用来定义中间件。
  3. items.py:用来提前定义好需要下载的数据字段。
  4. pipelines.py:用来保存数据。
  5. scrapy.cfg:用来配置项目的。
  6. lyw_spider.py:我们的爬虫文件。

2.对搭好的框架进行一个简单修改

2.1 start.py
首先呢,我们先改进一下我们的启动方式
开启scapy进行爬虫,需要在cmd中输入命令:

scrapy crawl lyw_spider

我们做一些优化,在项目下新建一个start.py
输入代码:

from scrapy import cmdlinecmdline.execute('scrapy crawl lyw_spider'.split(' '))

这样我们就可以直接通过pychar来进行我们的操作了

2.2 settings.py
对ssttings文件的修改

#修改协议为不遵守
ROBOTSTXT_OBEY = False
#添加游览器的信息
DEFAULT_REQUEST_HEADERS = {'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8','Accept-Language': 'en','User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.97 Safari/537.36'
}
#开启管道
ITEM_PIPELINES = {'lyw.pipelines.LywPipeline': 300,
}

3.分析需求

3.1
需求:实现猎云网网站的文章数据爬虫。需要保存标题、作者、发布时间、内容、原始url字段,然后异步保存到mysql数据库中。

ok,我们需要对这个网站上面的一些文章做处理,然后进行保存,异步保存,保存到mysql

3.2 item.py
在item文件中添加我们需要的字段

class LywItem(scrapy.Item):# define the fields for your item here like:# name = scrapy.Field()title = scrapy.Field()pub_time = scrapy.Field()author = scrapy.Field()content = scrapy.Field()origin = scrapy.Field()

然后在爬虫文件中引用:

from ..items import LywItem

4.爬虫文件

对爬虫文件lyw_spider.py进行代码添加

class LywSpiderSpider(CrawlSpider):name = 'lyw_spider'allowed_domains = ['lieyunwang.com']#此处需要填写网站的起始urlstart_urls = ['https://www.lieyunwang.com/latest/p1.html']#规则rules = (#规则1:利用正则表达式获取所有的下一页url,跟进(在下一页中进行查找)Rule(LinkExtractor(allow=r'/latest/p\d+\.html'), follow=True),#规则2:利用正则表达式获取每个文章的详细页,在当前页面调用回调函数‘parse_item’,不跟进(不继续深挖)Rule(LinkExtractor(allow=r'/archives/\d+'), callback='parse_item', follow=False),  #规则,会掉函数,是否跟进)def parse_item(self, response):#获取文章的发布时间pub_time = response.xpath('//h1[@class = "lyw-article-title"]/span/text()').get()#获取文章的标题title_list = response.xpath('//h1[@class = "lyw-article-title"]/text()').getall()title = ''.join(title_list).strip()#获取文章的作者信息author = response.xpath('//div[@class = "author-info"]/a/text()').get()#获取文章的内容content = response.xpath('//div[@class = "main-text"]').get()#获取文章的原始url字段origin = response.url#将获取到的信息传递给管道item = LywItem(title=title,pub_time=pub_time,author=author,content=content,origin=origin)yield item

5.异步保存至mysql

1.settings.py
在settings.py文件中添加我们的数据库信息

MYSQL_CONFIG = {'DRIVER' : 'pymysql',    #解释器为pymysql'HOST' : 'localhost',    #主机:本地'PORT' : 3306,           #端口:3306'USER' : 'root',		 #用户名'PASSWORD' : 'root',	 #用户密码'DATABASE' : 'lieyunwang'    #数据库名
}

2.pipelines.py
在pipelines.py文件中对数据进行存储

  1. 使用twisted.enterprise.adbapi来创建连接池
  2. 使用runInteraction来运行插入sql语句的函数
  3. 在插入sql语句的函数中,第一个非self的参数就是cursor对象,使用这个对象执行sql语句

此时,我们已经有了数据item和数据库的连接方式
接下来我们要做的就是异步写入mysql

我们需要通过twisted来创建一个连接池
然后将连接池与mysql相连接
在通过连接池的runInteraction方法来插入我们的sql语句,

#我们的异步操作需要依靠twisted库来执行,首先我们先导入函数
from twisted.enterprise import adbapiclass LywPipeline(object):def __init__(self,mysql_config):#创建连接池,并对连接参数进行设置self.dbpool = adbapi.ConnectionPool(mysql_config['DRIVER'],host=mysql_config['HOST'],port=mysql_config['PORT'],user=mysql_config['USER'],password=mysql_config['PASSWORD'],db=mysql_config['DATABASE'],charset='utf8')@classmethoddef from_crawler(cls,crawler):# 只要重写了from_crawler方法,那么以后创建对象的时候,就会调用这个方法来创建 pipelinesmysql_config = crawler.settings['MYSQL_CONFIG']return cls(mysql_config)#数据保存运行函数def process_item(self, item, spider):#运行run方法来输出我们的sql语句result = self.dbpool.runInteraction(self.insert_item,item)result.addErrback(self.insert_error())return item#sql语句插入函数def insert_item(self,cursor,item):sql = 'insert into article(id,title,author,pub_time,content,origin) values(null,%s,%s,%s,%s,%s)'args = (item['title'],item['author'],item['pub_time'],item['content'],item['origin'])cursor.execute(sql,args)#错误打印机制def insert_error(self,failure):print('-'*50)print(failure)print('-'*50)#关闭爬虫def close_spider(self,spider):self.dbpool.close()

我们的成果:

在这里插入图片描述

这篇关于Scrapy-CrawlSpider-MySQL-猎云网的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/277535

相关文章

SQL中的外键约束

外键约束用于表示两张表中的指标连接关系。外键约束的作用主要有以下三点: 1.确保子表中的某个字段(外键)只能引用父表中的有效记录2.主表中的列被删除时,子表中的关联列也会被删除3.主表中的列更新时,子表中的关联元素也会被更新 子表中的元素指向主表 以下是一个外键约束的实例展示

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

如何去写一手好SQL

MySQL性能 最大数据量 抛开数据量和并发数,谈性能都是耍流氓。MySQL没有限制单表最大记录数,它取决于操作系统对文件大小的限制。 《阿里巴巴Java开发手册》提出单表行数超过500万行或者单表容量超过2GB,才推荐分库分表。性能由综合因素决定,抛开业务复杂度,影响程度依次是硬件配置、MySQL配置、数据表设计、索引优化。500万这个值仅供参考,并非铁律。 博主曾经操作过超过4亿行数据

性能分析之MySQL索引实战案例

文章目录 一、前言二、准备三、MySQL索引优化四、MySQL 索引知识回顾五、总结 一、前言 在上一讲性能工具之 JProfiler 简单登录案例分析实战中已经发现SQL没有建立索引问题,本文将一起从代码层去分析为什么没有建立索引? 开源ERP项目地址:https://gitee.com/jishenghua/JSH_ERP 二、准备 打开IDEA找到登录请求资源路径位置

MySQL数据库宕机,启动不起来,教你一招搞定!

作者介绍:老苏,10余年DBA工作运维经验,擅长Oracle、MySQL、PG、Mongodb数据库运维(如安装迁移,性能优化、故障应急处理等)公众号:老苏畅谈运维欢迎关注本人公众号,更多精彩与您分享。 MySQL数据库宕机,数据页损坏问题,启动不起来,该如何排查和解决,本文将为你说明具体的排查过程。 查看MySQL error日志 查看 MySQL error日志,排查哪个表(表空间

MySQL高性能优化规范

前言:      笔者最近上班途中突然想丰富下自己的数据库优化技能。于是在查阅了多篇文章后,总结出了这篇! 数据库命令规范 所有数据库对象名称必须使用小写字母并用下划线分割 所有数据库对象名称禁止使用mysql保留关键字(如果表名中包含关键字查询时,需要将其用单引号括起来) 数据库对象的命名要能做到见名识意,并且最后不要超过32个字符 临时库表必须以tmp_为前缀并以日期为后缀,备份

[MySQL表的增删改查-进阶]

🌈个人主页:努力学编程’ ⛅个人推荐: c语言从初阶到进阶 JavaEE详解 数据结构 ⚡学好数据结构,刷题刻不容缓:点击一起刷题 🌙心灵鸡汤:总有人要赢,为什么不能是我呢 💻💻💻数据库约束 🔭🔭🔭约束类型 not null: 指示某列不能存储 NULL 值unique: 保证某列的每行必须有唯一的值default: 规定没有给列赋值时的默认值.primary key:

MySQL-CRUD入门1

文章目录 认识配置文件client节点mysql节点mysqld节点 数据的添加(Create)添加一行数据添加多行数据两种添加数据的效率对比 数据的查询(Retrieve)全列查询指定列查询查询中带有表达式关于字面量关于as重命名 临时表引入distinct去重order by 排序关于NULL 认识配置文件 在我们的MySQL服务安装好了之后, 会有一个配置文件, 也就

Java 连接Sql sever 2008

Java 连接Sql sever 2008 /Sql sever 2008 R2 import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.Statement; public class TestJDBC

Mysql BLOB类型介绍

BLOB类型的字段用于存储二进制数据 在MySQL中,BLOB类型,包括:TinyBlob、Blob、MediumBlob、LongBlob,这几个类型之间的唯一区别是在存储的大小不同。 TinyBlob 最大 255 Blob 最大 65K MediumBlob 最大 16M LongBlob 最大 4G