Python爬虫:看看舞蹈区哪个女网红最给力,如果爬虫不是为了爬视频,那将毫无意义

2024-03-08 21:10

本文主要是介绍Python爬虫:看看舞蹈区哪个女网红最给力,如果爬虫不是为了爬视频,那将毫无意义,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

      • 一、前面的前奏
      • 二、爬虫流程
      • 三、代码展示

直播平台就只有那么几个流批的,大家应该多少都看过,不是吧不是吧,不会没有不知道吧~
在这里插入图片描述

再众所周知,颜值区的主播一直都是还不错的,一般人顶不住,所以我们今天来一探深浅~
在这里插入图片描述

一、前面的前奏

1、使用的环境

  • Python3.8
  • pycharm专业版

2、模块安装

这是要用的模块

  • requests
  • re
  • json

win+r打开搜索输入cmd按确定打开命令提示符窗口,输入pip install 加上你要安装的模块即可。下载速度慢的话换成国外的镜像源。

我还给大家准备了Python实现的五子棋游戏和超级玛丽源码,还有Python相关电子书和视频,都可以在左边扫码领取,没有软件或者不会安装也也可以。

二、爬虫流程

首先确定我们的需求是什么,以及数据来源分析。

通过开发者工具进行抓包分析,分析视频播放地址来自哪里。

得到视频播放url ,分析视频播放url 可以从哪里获取。

先获取所有视频的ID;
把这个ID传入视频数据包里面,就可以获取音频url地址以及视频标题;
音频url地址,可以进行保存数据;

代码实现步骤

发送请求 >>> 获取数据 >>> 解析数据 >>> 保存数据

发送请求, 对于视频数据包url地址
获取数据, 获取[服务器]返回的数据内容
解析数据, 提取我们想要的内容 视频url地址以及视频标题
保存数据

三、代码展示

导入模块

import requests  # 数据请求模块 
import pprint # 格式化输出模块
import re # 正则表达式

翻页分析请求url地址的变化规律,构建for循环。

for page in range(3, 11):print(f'===================正在爬取第{page}页的数据内容===================')url = f'https://v.****.com/g/all?set_id=31&order=hot&page={page}'headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.93 Safari/537.36'}response = requests.get(url=url, headers=headers)

\d+匹配多个数字 视频ID 都是数字 想要的数据就用()
通过re模块里面findall方法,从response.text 里面匹配查询 <a href="//v.huya.com/play/(\d+).html" class="video-wrap"数据内容。

video_id_list = re.findall('<a href="//v.****.com/play/(\d+)\.html" class="vide-wrap"', response.text)
for video_id in video_id_list:

1、发送请求

对于视频数据包url地址

字符串格式化的方法,就是把 video_id 传入 url里面。

ur1 = f'https://liveapi.****.com/moment/getMomentContent?videoId={video_id}&uid=&_=1639224652506'

headers请求头,作用伪装python代码,模拟成浏览器对于服务器发送请求。
某些网站 不加headers会被反爬, 被识别出来是爬虫程序,服务器不会给你返回数据。
headers字典数据类型,键值对形势一个键对应一个值,键和值之间是用冒号隔开的。

headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.93 Safari/537.36'}

通过requests这个模块里面get请求方法,对于url地址发送请求,并且携带上headers请求头进行伪装,最后response变量接收返回数据。

response = requests.get(url=url, headers=headers)

<Response [200]> response响应体对象 200 状态码,表示请求成功。
response.text 获取响应体的文本数据。

2、获取数据

获取[服务器]返回的数据内容。

返回json字典数据,对于后续解析数据会更加方便。

print(response.json())
pprint.pprint(response.json())

3、解析数据

提取我们想要的内容 视频url地址以及视频标题

对于字典提取数据, 有了解过吗?

就是根据冒号左边的内容,提取冒号右边内容。

title = response.json()['data']['moment']['title']
video_url = response.json()['data']['moment']['videoInfo']['definitions'][0]['url']

4、保存数据

需要对于视频url发送请求,获取二进制数据内容。
response.content获取响应体二进制数据内容。

video_content = requests.get(url=video_url, headers=headers).content

mode:保存方式
wb: w写入, b 二进制模式, wb 以二进制方式保存数据。

第一个 \ 转义字符 \表示 文件路径 video

with open('video\\' + title + '.mp4', mode='wb') as f:f.write(video_content)print(title, video_url)

完整代码

import requests  
import pprint 
import re 
#视频讲解我放在评论区置顶了
for page in range(3, 11):print(f'===================正在爬取第{page}页的数据内容===================')url = f'https://v.****.com/g/all?set_id=31&order=hot&page={page}'headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.93 Safari/537.36'}response = requests.get(url=url, headers=headers)video_id_list = re.findall('<a href="//v.****.com/play/(\d+)\.html" class="vide-wrap"', response.text)for video_id in video_id_list:ur1 = f'https://liveapi.****.com/moment/getMomentContent?videoId={video_id}&uid=&_=1639224652506'headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.93 Safari/537.36'}response = requests.get(url=url, headers=headers)title = response.json()['data']['moment']['title']video_url = response.json()['data']['moment']['videoInfo']['definitions'][0]['url']video_content = requests.get(url=video_url, headers=headers).contentwith open('video\\' + title + '.mp4', mode='wb') as f:f.write(video_content)print(title, video_url)

代码里面所有的地址我都屏蔽了,大家自己改成小脑斧的原名吧。

兄弟们,看完了点个赞支持一下呗~

下次才有动力更新的更快撒!

这篇关于Python爬虫:看看舞蹈区哪个女网红最给力,如果爬虫不是为了爬视频,那将毫无意义的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/788405

相关文章

Python将博客内容html导出为Markdown格式

《Python将博客内容html导出为Markdown格式》Python将博客内容html导出为Markdown格式,通过博客url地址抓取文章,分析并提取出文章标题和内容,将内容构建成html,再转... 目录一、为什么要搞?二、准备如何搞?三、说搞咱就搞!抓取文章提取内容构建html转存markdown

Python获取中国节假日数据记录入JSON文件

《Python获取中国节假日数据记录入JSON文件》项目系统内置的日历应用为了提升用户体验,特别设置了在调休日期显示“休”的UI图标功能,那么问题是这些调休数据从哪里来呢?我尝试一种更为智能的方法:P... 目录节假日数据获取存入jsON文件节假日数据读取封装完整代码项目系统内置的日历应用为了提升用户体验,

Python FastAPI+Celery+RabbitMQ实现分布式图片水印处理系统

《PythonFastAPI+Celery+RabbitMQ实现分布式图片水印处理系统》这篇文章主要为大家详细介绍了PythonFastAPI如何结合Celery以及RabbitMQ实现简单的分布式... 实现思路FastAPI 服务器Celery 任务队列RabbitMQ 作为消息代理定时任务处理完整

Python Websockets库的使用指南

《PythonWebsockets库的使用指南》pythonwebsockets库是一个用于创建WebSocket服务器和客户端的Python库,它提供了一种简单的方式来实现实时通信,支持异步和同步... 目录一、WebSocket 简介二、python 的 websockets 库安装三、完整代码示例1.

揭秘Python Socket网络编程的7种硬核用法

《揭秘PythonSocket网络编程的7种硬核用法》Socket不仅能做聊天室,还能干一大堆硬核操作,这篇文章就带大家看看Python网络编程的7种超实用玩法,感兴趣的小伙伴可以跟随小编一起... 目录1.端口扫描器:探测开放端口2.简易 HTTP 服务器:10 秒搭个网页3.局域网游戏:多人联机对战4.

使用Python实现快速搭建本地HTTP服务器

《使用Python实现快速搭建本地HTTP服务器》:本文主要介绍如何使用Python快速搭建本地HTTP服务器,轻松实现一键HTTP文件共享,同时结合二维码技术,让访问更简单,感兴趣的小伙伴可以了... 目录1. 概述2. 快速搭建 HTTP 文件共享服务2.1 核心思路2.2 代码实现2.3 代码解读3.

Python使用自带的base64库进行base64编码和解码

《Python使用自带的base64库进行base64编码和解码》在Python中,处理数据的编码和解码是数据传输和存储中非常普遍的需求,其中,Base64是一种常用的编码方案,本文我将详细介绍如何使... 目录引言使用python的base64库进行编码和解码编码函数解码函数Base64编码的应用场景注意

用js控制视频播放进度基本示例代码

《用js控制视频播放进度基本示例代码》写前端的时候,很多的时候是需要支持要网页视频播放的功能,下面这篇文章主要给大家介绍了关于用js控制视频播放进度的相关资料,文中通过代码介绍的非常详细,需要的朋友可... 目录前言html部分:JavaScript部分:注意:总结前言在javascript中控制视频播放

Python基于wxPython和FFmpeg开发一个视频标签工具

《Python基于wxPython和FFmpeg开发一个视频标签工具》在当今数字媒体时代,视频内容的管理和标记变得越来越重要,无论是研究人员需要对实验视频进行时间点标记,还是个人用户希望对家庭视频进行... 目录引言1. 应用概述2. 技术栈分析2.1 核心库和模块2.2 wxpython作为GUI选择的优

Python如何使用__slots__实现节省内存和性能优化

《Python如何使用__slots__实现节省内存和性能优化》你有想过,一个小小的__slots__能让你的Python类内存消耗直接减半吗,没错,今天咱们要聊的就是这个让人眼前一亮的技巧,感兴趣的... 目录背景:内存吃得满满的类__slots__:你的内存管理小助手举个大概的例子:看看效果如何?1.