使用爬虫爬取某云排行榜音乐并下载

2024-02-06 12:10

本文主要是介绍使用爬虫爬取某云排行榜音乐并下载,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

        众所周知,使用爬虫爬取数据分为四部分,即:1.发送请求2.获取响应3.数据解析4.数据持久化保存

       那么我们使用爬虫爬取某云排行榜音乐也遵循这四条规则,那我们按照这四条规则进行爬取,但在这之前我们先分析一下

(一) 分析

        使用爬虫进行爬取,一定是对网页进行爬取,网页url为: https://music.163.com.疑问来了,真的是对这个url发送请求吗?我们来试一下

我们打开test.html看一下

没问题,我们获取到了页面的源码数据,但我们是要爬取的是某云排行榜的音乐,所以我们要找到对应的url,我们直接在某云音乐网页进行检查分析即可

这样我们直接对这个url发送请求即可  https://music.163.com/#/discover/toplist

然后我们去分析具体的歌曲的数据都在哪里,还是使用检查进行分析即可

所有歌曲信息存在了tr的标签中

找到对应的href属性,跳转链接

很nice,其实在上一步我就已经获取到了足够的信息了,然后我们再加上一个神奇的链接前缀,再拼接上歌曲id,

http://music.163.com/song/media/outer/url?id=

然后神奇的一幕发生了

我们就可以听到歌曲了!!!

最后基于本地持久化保存就完全OK了.理论存在,实践开始!

(二)实践

        1.发送请求

        

        导包,进行UA伪装还有cookie验证

        2.获取响应

将响应数据保存到response_text,然后使用文件操作存到test.html查看情况

        3/4.数据解析and数据持久化保存

这俩是一块进行分析的,分不开,就放一块了

        a.首先使用etree获取指定标签的xpath路径,并进行存储

        b.然后使用os模块创建存储音乐的文件夹

        c.遍历存储歌曲信息的列表,获取歌曲name和id

        d.使用那个神奇的链接拼接上id就可以将歌曲信息存储到本地了

最后附上全部代码

# 马子哥最帅!
import requests
from lxml import etree
import re
import os
url = 'https://music.163.com/discover/toplist?'
headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/115.0.0.0 Safari/537.36 Edg/115.0.1901.200","cookie": "_iuqxldmzr_=32; NMTID=00Oo8PJsUao4AK4DEOsgK-HriwdLdcAAAGKIU7quQ; _ntes_nnid=4c7bd9c8180d3027dbdcd463434d5600,1692775933321; _ntes_nuid=4c7bd9c8180d3027dbdcd463434d5600; WEVNSM=1.0.0; WNMCID=fudshh.1692775934568.01.0; WM_NI=vXVLtbg4JzQTqMwR%2BbRX%2BLVyO%2BjEIrMfOWxKpVEUX%2BbEjtZ72yaw2nqO7C%2BYbj6V4Ts%2F1anYLckcXLfZ75j1hCQgDZUbpxL%2FMNrVoBaOfhG1AtTLQO3WB%2FDLDmENy%2FdZaWI%3D; WM_NIKE=9ca17ae2e6ffcda170e2e6eeb0d266b6aca5d5f17cb78a8eb3c45e978a8fb0c53982b989aece67f6eba8b9ce2af0fea7c3b92ab6889aadf76aa5ec869bd460b393b9b3aa6a9288e5add5738df5a6a6cc7a8fba81b8fb41b48a8bb6db21a29ba695d93df2a7af98b166b391f9a4aa53a2b6fab7b760b1f1ff82ed5390bda584db48a686f9d6e93bac9d9f88c75297bec099cf258f92beb7ee4aa391aa89c63b83ac9cadd445f1898ed0c74888b38baffc25a886afb8cc37e2a3; WM_TID=foT2pc%2FQLllFFRVRUEeBnFxCJfz7s0SO; sDeviceId=YD-AjZgCi7RA9xFEhAEBFKFjQkSIfz77KwS; ntes_utid=tid._.zhCiuWwBx0hFQgAFUQOUyFhCcK2%252B6aKn._.0; playerid=15055222; JSESSIONID-WYYY=cdVrZFzEqJhu87xWFVzFBpuWajUnncWEwncFdAm5kmaNite4sAtI6u4iHwg4f%2FDMsq%5C%2B7bXdZYeFwsqO7mK4EW9vABsy4X%5CciwcthZo86Dc1D17Rk3vvGw3YiaWMMJSuU73%2Bu2aq%5CNR6kysqIIaJRvT9D5qJtD2jhz0db91zu8l7d0vo%3A1692791661013"
}response_text = requests.get(url=url, headers=headers).text
with open ('../test.html', 'w', encoding='utf-8') as fp:fp.write(response_text)tree = etree.HTML(response_text)
song_detial_li = tree.xpath('//div[@class="g-wrap12"]/div[2]/ul/li')
# print(song_detial_li)if not os.path.exists('./wangyi_1_songslib'):os.mkdir('./wangyi_1_songslib')for song_detial in song_detial_li:song_name = song_detial.xpath('./a/text()')[0]song_id = song_detial.xpath('./a/@href')[0]print(song_name)print(song_id[9:])
# print(song_detial_li)jump_detial_url = 'http://music.163.com/song/media/outer/url?id=' + song_id[9:]print(jump_detial_url)song_detial = requests.get(url=jump_detial_url, headers=headers).contentpath = './wangyi_1_songslib/' + song_name+'.mp3'with open(path, 'wb') as fp:fp.write(song_detial)

效果如下图所示

   

如果你觉得这篇文章对你有帮助的话请给博主点个赞吧

这篇关于使用爬虫爬取某云排行榜音乐并下载的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/684269

相关文章

中文分词jieba库的使用与实景应用(一)

知识星球:https://articles.zsxq.com/id_fxvgc803qmr2.html 目录 一.定义: 精确模式(默认模式): 全模式: 搜索引擎模式: paddle 模式(基于深度学习的分词模式): 二 自定义词典 三.文本解析   调整词出现的频率 四. 关键词提取 A. 基于TF-IDF算法的关键词提取 B. 基于TextRank算法的关键词提取

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

Makefile简明使用教程

文章目录 规则makefile文件的基本语法:加在命令前的特殊符号:.PHONY伪目标: Makefilev1 直观写法v2 加上中间过程v3 伪目标v4 变量 make 选项-f-n-C Make 是一种流行的构建工具,常用于将源代码转换成可执行文件或者其他形式的输出文件(如库文件、文档等)。Make 可以自动化地执行编译、链接等一系列操作。 规则 makefile文件

使用opencv优化图片(画面变清晰)

文章目录 需求影响照片清晰度的因素 实现降噪测试代码 锐化空间锐化Unsharp Masking频率域锐化对比测试 对比度增强常用算法对比测试 需求 对图像进行优化,使其看起来更清晰,同时保持尺寸不变,通常涉及到图像处理技术如锐化、降噪、对比度增强等 影响照片清晰度的因素 影响照片清晰度的因素有很多,主要可以从以下几个方面来分析 1. 拍摄设备 相机传感器:相机传

常用的jdk下载地址

jdk下载地址 安装方式可以看之前的博客: mac安装jdk oracle 版本:https://www.oracle.com/java/technologies/downloads/ Eclipse Temurin版本:https://adoptium.net/zh-CN/temurin/releases/ 阿里版本: github:https://github.com/

pdfmake生成pdf的使用

实际项目中有时会有根据填写的表单数据或者其他格式的数据,将数据自动填充到pdf文件中根据固定模板生成pdf文件的需求 文章目录 利用pdfmake生成pdf文件1.下载安装pdfmake第三方包2.封装生成pdf文件的共用配置3.生成pdf文件的文件模板内容4.调用方法生成pdf 利用pdfmake生成pdf文件 1.下载安装pdfmake第三方包 npm i pdfma

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

git使用的说明总结

Git使用说明 下载安装(下载地址) macOS: Git - Downloading macOS Windows: Git - Downloading Windows Linux/Unix: Git (git-scm.com) 创建新仓库 本地创建新仓库:创建新文件夹,进入文件夹目录,执行指令 git init ,用以创建新的git 克隆仓库 执行指令用以创建一个本地仓库的

【北交大信息所AI-Max2】使用方法

BJTU信息所集群AI_MAX2使用方法 使用的前提是预约到相应的算力卡,拥有登录权限的账号密码,一般为导师组共用一个。 有浏览器、ssh工具就可以。 1.新建集群Terminal 浏览器登陆10.126.62.75 (如果是1集群把75改成66) 交互式开发 执行器选Terminal 密码随便设一个(需记住) 工作空间:私有数据、全部文件 加速器选GeForce_RTX_2080_Ti