Python爬虫框架:scrapy爬取迅雷电影天堂最新电影ed2k

2024-01-06 20:40

本文主要是介绍Python爬虫框架:scrapy爬取迅雷电影天堂最新电影ed2k,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

项目开始

第一步仍然是创建scrapy项目与spider文件

切换到工作目录两条命令依次输入

scrapy startproject xunleidianying
scrapy genspider xunleiBT https://www.xl720.com/thunder/years/2019

内容分析

打开目标网站(分类是2019年上映的电影),分析我们需要的数据在这里插入图片描述
进入页面是列表的形式就像豆瓣电影一样,然后我们点进去具体页面看看
在这里插入图片描述
这个页面就是我们需要拿到的内容页面,我们来看我们需要哪些数据(某些数据从第一个页面就可以获得,但是下载地址必须到第二个页面)

  • 电影名称
  • 电影信息
  • 电影内容剧情
  • 电影下载地址

分析完成之后就可以首先编写 items.py文件

import scrapy
'''
更多Python学习资料以及源码教程资料,可以在群1136201545免费获取
'''
class XunleidianyingItem(scrapy.Item):# define the fields for your item here like:# name = scrapy.Field()name = scrapy.Field()information = scrapy.Field()content = scrapy.Field()downloadurl = scrapy.Field()pass

另外别忘了去settings.py中开启 ITEM_PIPELINES 选项

爬虫文件编写

老样子,为了方便测试我们的爬虫,首先编写一个main.py的文件方便IDE调用

main.py:

import scrapy.cmdline
scrapy.cmdline.execute('scrapy crawl xunleiBT'.split())

首先我们先测试直接向目标发送请求是否可以得到响应

爬虫文件 xunleiBT.py编写如下:

# -*- coding: utf-8 -*-
import scrapyclass XunleibtSpider(scrapy.Spider):name = 'xunleiBT'allowed_domains = ['https://www.xl720.com/thunder/years/2019']start_urls = ['https://www.xl720.com/thunder/years/2019/']def parse(self, response):print(response.text)pass

运行 main.py 看看会出现什么在这里插入图片描述
好的,发现直接返回正常的网页也就是我们要的网页,说明该网站没有反爬机制,这样我们就更容易爬取了

然后通过xpath定位页面元素,具体就不再赘述,之前的scarpy教程中都有 继续编写爬虫文件

import scrapy
#导入编写的 item
from xunleidianying.items import XunleidianyingItem
'''
更多Python学习资料以及源码教程资料,可以在群1136201545免费获取
'''
class XunleibtSpider(scrapy.Spider):name = 'xunleiBT'allowed_domains = ['www.xl720.com']start_urls = ['https://www.xl720.com/thunder/years/2019/']def parse(self, response):url_list = response.xpath('//h3//@href').getall()for url in url_list:yield scrapy.Request(url,callback=self.detail_page)nextpage_link = response.xpath('//a[@class="nextpostslink"]/@href').get()if nextpage_link:yield scrapy.Request(nextpage_link, callback=self.parse)def detail_page(self,response):# 切记item带括号BT_item = XunleidianyingItem()BT_item['name'] = response.xpath('//h1/text()').get()BT_item['information'] = ''.join(response.xpath('//div[@id="info"]//text()').getall())BT_item['content'] = response.xpath('//div[@id="link-report"]/text()').get()BT_item['downloadurl'] = response.xpath('//div[@class="download-link"]/a/text() | //div[@class="download-link"]/a/@href').getall()yield BT_item

ITEM爬取完成后该干什么?当然是入库保存了,编写pipelines.py文件进行入库保存

再次提醒别忘了去settings.py中开启 ITEM_PIPELINES 选项

pipelines.py文件代码如下:

import pymongo
#连接本地数据库
myclient = pymongo.MongoClient("mongodb://localhost:27017/")
#数据库名称
mydb = myclient["movie_BT"]
#数据表名称
mysheet = mydb["movie"]
'''
更多Python学习资料以及源码教程资料,可以在群1136201545免费获取
'''
class XunleidianyingPipeline(object):def process_item(self, item, spider):data = dict(item)mysheet.insert(data)return item

再次运行main.py 等待运行完成后打开数据库查询在这里插入图片描述
数据保存完成,这次我们一共导入了380个数据,可以愉快的查看电影了

这篇关于Python爬虫框架:scrapy爬取迅雷电影天堂最新电影ed2k的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/577547

相关文章

不懂怎样摘草莓的电影我

拿起来后摘掉茎的电影 今天的拿起来后摘掉茎的电影,诶,我在某某自选商店,他们上了我的太阳飞机,那些小平房呢,不懂怎样摘草莓的电影我,我开着飞机,哪来的高楼大厦,我找了两个小时,是不是作弊了。 只好求助农民伯伯,都是很简单的,这是冀州市吗,快快充实交代梁锦宇笑着说,拿起来后摘掉茎,我说,咦,许多同学问梁锦宇,后来我才知道。 是东面还是西面,是团队的富民政策把平房变成了高楼大厦,找自己的住处,

一些人熟练的电影在雪地里滑来滑去

一进入滑雪场的电影 今天的一进入滑雪场的电影,根本就不会走路了,观察好了吗,一些人熟练的电影在雪地里滑来滑去,真好看,头脑体操,就只能象个大螃蟹一样,一进入滑雪场,指导教师。 恨不得一下子就像滑雪高手那样随心所欲的滑翔,在那块布料上比划来比划去,我读到了一本自己最喜欢的书,心里痒痒的,很想送一件特别的礼物给青蛙,王秀香参观半坡博物馆一天早上老师对我们说,精心的挑选了一块漂亮的布料,发自内心的

我的电影好成绩都是通过努力得来的

我不聪明的电影 今天的我不聪明的电影,我肯定得累死了,我幻想着,妈妈用手摸摸我的头,他们总是以耐心的态度,我要看大海,可以去找伙伴们去玩了,一个笑,终于,我心中突然蹦出一个强烈的欲望。 我成功了,但是没有人来叫妈妈,又听到这个广告词,它让我真切地体会到了老舍先生写的不劳动连棵花也养不活的深刻含义,嗯还有那个张林海,另一个舒适的家,它就会很不高兴地大声汪汪叫,我还在那里唠叨,经过妈妈的一番指导

Python 字符串占位

在Python中,可以使用字符串的格式化方法来实现字符串的占位。常见的方法有百分号操作符 % 以及 str.format() 方法 百分号操作符 % name = "张三"age = 20message = "我叫%s,今年%d岁。" % (name, age)print(message) # 我叫张三,今年20岁。 str.format() 方法 name = "张三"age

一道经典Python程序样例带你飞速掌握Python的字典和列表

Python中的列表(list)和字典(dict)是两种常用的数据结构,它们在数据组织和存储方面有很大的不同。 列表(List) 列表是Python中的一种有序集合,可以随时添加和删除其中的元素。列表中的元素可以是任何数据类型,包括数字、字符串、其他列表等。列表使用方括号[]表示,元素之间用逗号,分隔。 定义和使用 # 定义一个列表 fruits = ['apple', 'banana

Python应用开发——30天学习Streamlit Python包进行APP的构建(9)

st.area_chart 显示区域图。 这是围绕 st.altair_chart 的语法糖。主要区别在于该命令使用数据自身的列和指数来计算图表的 Altair 规格。因此,在许多 "只需绘制此图 "的情况下,该命令更易于使用,但可定制性较差。 如果 st.area_chart 无法正确猜测数据规格,请尝试使用 st.altair_chart 指定所需的图表。 Function signa

python实现最简单循环神经网络(RNNs)

Recurrent Neural Networks(RNNs) 的模型: 上图中红色部分是输入向量。文本、单词、数据都是输入,在网络里都以向量的形式进行表示。 绿色部分是隐藏向量。是加工处理过程。 蓝色部分是输出向量。 python代码表示如下: rnn = RNN()y = rnn.step(x) # x为输入向量,y为输出向量 RNNs神经网络由神经元组成, python

python 喷泉码

因为要完成毕业设计,毕业设计做的是数据分发与传输的东西。在网络中数据容易丢失,所以我用fountain code做所发送数据包的数据恢复。fountain code属于有限域编码的一部分,有很广泛的应用。 我们日常生活中使用的二维码,就用到foutain code做数据恢复。你遮住二维码的四分之一,用手机的相机也照样能识别。你遮住的四分之一就相当于丢失的数据包。 为了实现并理解foutain

python 点滴学

1 python 里面tuple是无法改变的 tuple = (1,),计算tuple里面只有一个元素,也要加上逗号 2  1 毕业论文改 2 leetcode第一题做出来

Python爬虫-贝壳新房

前言 本文是该专栏的第32篇,后面会持续分享python爬虫干货知识,记得关注。 本文以某房网为例,如下图所示,采集对应城市的新房房源数据。具体实现思路和详细逻辑,笔者将在正文结合完整代码进行详细介绍。接下来,跟着笔者直接往下看正文详细内容。(附带完整代码) 正文 地址:aHR0cHM6Ly93aC5mYW5nLmtlLmNvbS9sb3VwYW4v 目标:采集对应城市的