scrapy简书整站爬取

2024-01-03 05:48
文章标签 scrapy 爬取 简书 整站

本文主要是介绍scrapy简书整站爬取,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

  • 数据同步及异步存储到MySQL
  • 对于ajax 加载的数据用selenium辅助加载解析
  • 整站爬取提取url规则

使用了scrapy 提供的 crawlspider 提取规则的url列表,scrapy会自动帮我们提取。

jianshu.py 文件

import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from jianshu_spider.items import JianshuSpiderItemclass JianshuSpider(CrawlSpider):name = 'jianshu'allowed_domains = ['jianshu.com']start_urls = ['https://www.jianshu.com/']rules = (# 观察url发现,前缀都一样,后面是12个数字加小写字母的组合Rule(LinkExtractor(allow=r'.*/p/[0-9a-z]{12}.*'), callback='parse_detial', follow=True),)def parse_detial(self, response):title = response.xpath('//h1[@class="title"]/text()').extract_first('') # 提取标题avatar = response.xpath('//a[@class="avatar"]/img/@src').extract_first('') # 提取头像author = response.xpath('//span[@class="name"]/a/text()').extract_first('') # 提取作者publish_time = response.xpath('//span[@class="publish-time"]/text()').extract_first('') # 提取发布时间content = response.xpath('//div[@class="show-content"]').get() # 提取文章内容# 提取文章ip,也就是url上面的不一样的字符串process_url = response.url.split('?')[0] # 以问号分割取前一部分article_id = process_url.split('/')[-1] # 以 ‘/’ 分割获取最后一个字符串即为文章的idorigin_url = response.urlprint(title)item = JianshuSpiderItem(title=title,avatar=avatar,author=author,publish_time=publish_time,content=content,article_id=article_id,origin_url=origin_url)return item

item.py文件

这里主要定义了一些要爬取的字段。还可以扩展爬取更多的字段。

class JianshuSpiderItem(scrapy.Item):# define the fields for your item here like:# name = scrapy.Field()title = scrapy.Field()avatar = scrapy.Field()author = scrapy.Field()publish_time = scrapy.Field()content = scrapy.Field()article_id = scrapy.Field()origin_url = scrapy.Field()

settings.py文件

这里主要是一些设置的文件,包括请求头,打开pipelines,middleware.

ROBOTSTXT_OBEY = False
DOWNLOAD_DELAY = 1
DEFAULT_REQUEST_HEADERS = {'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8','Accept-Language': 'en','User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'
}
DOWNLOADER_MIDDLEWARES = {#'jianshu_spider.middlewares.JianshuSpiderDownloaderMiddleware': 543,'jianshu_spider.middlewares.SeleniumDownloadMiddleware': 543,}
ITEM_PIPELINES = {'jianshu_spider.pipelines.JianshuSpiderPipeline': 300,#'jianshu_spider.pipelines.JianshuTwistedPipeline': 300,}

pipelines.py文件

这里把数据存储到数据库中。同步和异步两种方式。

import pymysql
from twisted.enterprise import adbapi # 使用异步数据库处理连接池
from pymysql import cursors # 数据库游标类class JianshuSpiderPipeline(object):def __init__(self):params = {'host':'127.0.0.1','port':3306,'user':'root','password':'1326628437','database':'jianshu','charset':'utf8'}self.conn = pymysql.connect(**params)self.sursor = self.conn.cursor()self._sql = None@property # 属性操作,可直接调用def sql(self):if not self._sql:self._sql = '''insert into article(title,author,avatar,publish_time,article_id,origin_url,content) value(%s,%s,%s,%s,%s,%s,%s)'''return self._sqlreturn self._sqldef process_item(self, item, spider):self.sursor.execute(self.sql,(item['title'],item['author'],item['avatar'],item['publish_time'],item['article_id'],item['origin_url'],item['content']))self.conn.commit()return item# 异步实现插入数据库,插入操作是io操作,数据量大时,会出现堵塞,异步插入很有必要class JianshuTwistedPipeline(object):def __init__(self):params = {'host':'127.0.0.1','port':3306,'user':'root','password':'1326628437','database':'jianshu','charset':'utf8','cursorclass':cursors.DictCursor}# 调用异步连接池实现异步插入数据库self.dbpool = adbapi.ConnectionPool("pymysql",**params)self._sql = None@propertydef sql(self):if not self._sql:self._sql = '''insert into article(title,author,avatar,publish_time,article_id,origin_url,content) value(%s,%s,%s,%s,%s,%s,%s)'''return self._sqlreturn self._sqldef process_item(self,item,spider):# 异步插入数据defer = self.dbpool.runInteraction(self.insert_item,item)# 错误处理defer.addErrback(self.handle_error,item,spider)def insert_item(self,item,cursor):cursor.execute(self.sql,(item['title'],item['author'],item['avatar'],item['publish_time'],item['article_id'],item['origin_url'],item['content']))def handle_error(self,item,error,spider):print('+'*30 + 'error' + '+'*30)print(error)print('+'*30 + 'error' + '+'*30)

middleware.py文件

这里修改请求过程,目的为了获取ajax加载的url

from selenium import webdriver
import time
from selenium.webdriver.common.by import By
from selenium.webdriver.support.wait import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from scrapy.http.response.html import HtmlResponse# 用selenium重写请求过程,实现去爬取一些用ajax加载的页面
# 一些点赞数,评论数,喜欢数,推荐阅读的文章链接都是ajax加载的。
class SeleniumDownloadMiddleware(object):def __init__(self):self.browser = webdriver.Chrome() #self.wait = WebDriverWait(self.browser,10)def process_request(self,request,spider):self.browser.get(request.url)print('我正在用selenium自动化工具下载url')time.sleep(1)try:while True:# 这里因为有些文章下方有许多加载更多,在文章被一下专栏收录里,所以要重复点击showmore = self.browser.find_element_by_class_name('show-more')showmore.click()time.sleep(0.3)if not showmore:breakexcept:passsource = self.browser.page_sourceresponse = HtmlResponse(url=self.browser.current_url,request=request,body=source,encoding='utf-8')return response

这篇关于scrapy简书整站爬取的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/564682

相关文章

scrapy 出现404处理

第一种解决策略: from scrapy.http import Requestfrom scrapy.spider import BaseSpiderclass MySpider(BaseSpider):handle_httpstatus_list = [404, 500]name = "my_crawler"start_urls = ["http://github.com/illeg

scrapy 爬网站 显示 Filtered offsite request to 错误.

爬取zol 网站图片,无法抓取. 在 setting.py 文件中 设置 日志 记录等级  LOG_LEVEL= 'DEBUG' LOG_FILE ='log.txt' 查看日志 发现报 2015-11-07 14:43:43+0800 [meizitu] DEBUG: Filtered offsite request to 'bbs.zol.com.cn': <GET h

Scrapy基础——Debug和test

写代码的最常做的事情就是debug和test,那么如何在Scrapy中检查爬虫能否正常运行,保证在大规模作业时不会遇到奇奇怪怪的问题呢?这里主要根据实例说些debug的方法。 Debug三部曲 Parse parse命令主要用于从method级别去检查爬虫不同部分的行为。它有以下几个可选项: --spider=SPIDER,指定爬虫--a NAME=VALUE,设置爬虫变量--call

Scrapy实战-下载豆瓣图书封面

紧接着再识Scrapy-爬取豆瓣图书,我们打算把每一本图书的封面都爬下来,毕竟下载图片是一件很棒的事。可以凭借这招去搜集各种表情包呢,还可以省了在某榴辛辛苦苦一个一个打开网页的烦恼呢。 根据官方文档,下载图片其实pipeline.py的额外工作而已,大致分为以下几步 在Spider中,额外定义一个image_urls用来存放图片链接的 item;这个item会从spider中传递到pipelin

Scrapy实战-爬取豆瓣漫画

背景知识 (一)什么是Scrapy呢?Python上优秀的爬虫框架。什么是爬虫?可以看我的心得感悟,也可以自行谷歌百度。 (二)建议看下初识Scrapy的事前准备安装Scrapy。 (三)Selectors根据XPath和CSS表达式从网页中选择数据。XPath和CSS表达式是什么东西,我们不用太过于纠结,只需要知道可以使用它们在网页中选择数据。用法:利用chrome去复制所需数据的位置信息

我在简书的第4周年

今天登陆简书的时候看到了一个提示,提醒我已经加入简书4周年了。 四周年 不知不觉已经写了将近50多万的字(不计代码),也没有想到原来我加入简书正好是五四。 四周年的我 正如当我的粉丝数达到4000,5000时那样,想写些什么,却不知道应该写什么,那就这样子吧。尽管简书目前的运营很迷,但还是希望它能够坚持下去,我们5周年见。 4000粉丝记

转:网页爬取页面去重策略

网上搜集到的网页去重策略: 1.通过MD5生成电子指纹来判断页面是否改变 2.nutch去重策略: nutch中digest是对采集的每一个网页内容的32位哈希值,如果两个网页内容完全一样,它们的digest值肯定会一样,但哪怕其中之一多或少一个空格,它们的digest值就会不一样。所以,我认为,用digest做id是一个非常不错的选择。     如果nutch在两次不同的时间抓某个

Python爬虫学习 | Scrapy框架详解

一.Scrapy框架简介 何为框架,就相当于一个封装了很多功能的结构体,它帮我们把主要的结构给搭建好了,我们只需往骨架里添加内容就行。scrapy框架是一个为了爬取网站数据,提取数据的框架,我们熟知爬虫总共有四大部分,请求、响应、解析、存储,scrapy框架都已经搭建好了。scrapy是基于twisted框架开发而来,twisted是一个流行的事件驱动的python网络框架,scrapy使用了一

python实战(爬取一个小说网站,将爬取的文本转换为语音)

1.前言 有声小说相信大家都不陌生了, 里面的音频基本都是一些声优录制的 其实除了录制音频, 咱们可以利用百度免费的api接口使用python语言在线合成语音 制作属于自己的有声小说, 一睹为快吧!! 2.爬取小说网站 爬取的网站http://www.xbiquge.la/10/10489/ 代码示例: # -*- coding: utf-8 -*-# @File : 爬取文本内容

python-爬虫篇-爬取百度贴吧,段友之家的图片和视频

#!/usr/bin/env python# -*- coding: utf-8 -*-"""爬取百度贴吧,段友之家的图片和视频author: cuizytime:2018-05-19"""import requestsimport bs4import osdef write_file(file_url, file_type):"""写入文件"""res = requests.