爬虫入门--Python利用selenium下载中央广播电台FM广播节目

本文主要是介绍爬虫入门--Python利用selenium下载中央广播电台FM广播节目,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

本文主要利用爬虫技术,来自动下载网页上音频数据

参考资料:

关于python入门,可以学习在imooc网课上搜索Python开发简单爬虫

关于如何加载下一页,参考博客python利用beautifulsoup+selenium自动翻页抓取网页内容

简单爬虫知识

 主要分为爬虫调度器,URL管理器,网页下载器,网页解析器,价值数据

  1. 爬虫调度器:来开启抓取数据
  2. URL管理器:主要来负责管理访问的URL,包括为了防止重复访问用Set数据结构来保存,已经访问过的URL和未访问过的URL
  3. 网页下载器:用来获取网页内容,常用的urllib2和selenium库,其中selenium库可以调用网页交互操作和js加载后的数据,本文用selenium库来获取网页数据
  4. 网页解析器:主要从网页内容分解出我们需要的内容,如访问的url,文本内容,常用的库为BeautifulSoup库,也常用re库开正则查找
  5. 价值数据:为我们需要的数据

任务

央广或者地方台广播中有许多优秀的作品,比如经济广播中有一个节目《每当夜晚来临的时候》,我们想要获得之前的节目时,幸运的是,央广网主页时提供以往节目,我们手动下载比较多,耗时耗力,我们就可以利用爬虫技术,从网页中解析获得下载URL------->下载文件-------->加载下一页-------->解析下载URL------->.......

节目地址:每当夜晚来临的时候

实现

  1. 网页下载器

    采用selenium,使用PhantomJS时需要下载相关的程序,下载地址,然后放在python的Scripts文件夹下
    from selenium import webdriver
    driver = webdriver.PhantomJS()
    url='http://www.radio.cn/pc-portal/sanji/zhibo_2.html?channelname=2&name=520799&title=radio#'
    driver.get(url)
    print(driver.page_source)

    打印出网页内容,就可以看到html内容

    <!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd"><html xmlns="http://www.w3.org/1999/xhtml" xml:lang="utf-8" lang="utf-8" style="position: relative; height: 100%;"><head><script type="text/javascript" src="http://bdimg.share.baidu.com/static/api/js/view/share_view.js?v=3ae6026d.js"></script><script type="text/javascript" src="http://bdimg.share.baidu.com/static/api/js/share/share_api.js?v=226108fe.js"></script><meta http-equiv="Content-Type" content="text/html; charset=utf-8"><title>中国广播Radio.cn</title><meta name="filetype" content="0"><meta name="publishedtype" content="1"><meta name="pagetype" content="1"><meta name="catalogs" content="radio10"><meta name="contentid" content="520799"><meta name="publishdate" content="">

     

  2.  网页解析器

    主要是来获得下载链接,在网页上选中“下载”右键选择检查,可以得到我们需要的节点
    <a href="#" onclick="downLiveRecord('cnvod.cnr.cn/audio2018/live/jjzs/201903/mdywlldsh_20190322231021jjzs_h.m4a','每当夜晚来临的时候');" style="color:#4876FF">下载</a>

    利用 BeautifulSoup来查找该节点

    html_cont = driver.page_source
    soup = BeautifulSoup(html_cont, 'html.parser', from_encoding='utf-8')
    links = soup.find_all('a', onclick=re.compile(r"downLiveRecord"))
    html_code = links[0]
    print(links[0])

    根据上面可以得到结果

    <a href="#" onclick="downLiveRecord('cnvod.cnr.cn/audio2018/live/jjzs/201903/mdywlldsh_20190322231021jjzs_h.m4a','每当夜晚来临的时候');" style="color:#4876FF">下载</a>

    利用正则查找,找到下载url

    results = re.findall(r"cnvod.*m4a",str(html_code))
    print(results)
    words = results[0].split('/')
    folder_name = words[-2]
    file_name = words[-1]
    print(folder_name, file_name)

    可以得到下载链接,以及其他的信息

    ['cnvod.cnr.cn/audio2018/live/jjzs/201903/mdywlldsh_20190322231021jjzs_h.m4a']
    201903 mdywlldsh_20190322231021jjzs_h.m4a

     

  3. URL管理器

      可以将上面的url用set管理起来等操作,这里说一下怎么加载下一页

    driver.find_element_by_xpath("//a[contains(text(),'下一页')]").click()# selenium的xpath用法,找到包含“下一页”的a标签去点击
  4. 音频下载
down_url = r"http://"+str(results[0])
r = requests.get(down_url,stream=True) #stream=True #开启时时续续的下载的方式
total_size = int(r.headers['Content-Length'])
temp_size = 0
with open(file_name, 'wb') as f:for chunk in r.iter_content(chunk_size=1024): #chunk_size #设置每次下载文件的大小temp_size += len(chunk)f.write(chunk)  #每一次循环存储一次下载下来的内容f.flush()done = int(50 * temp_size / total_size)sys.stdout.write("\r[%s%s] %d%%" % ('█' * done, ' ' * (50 - done), 100 * temp_size / total_size))sys.stdout.flush()

 完整代码

import os
import re
import sys
import time
import requests
from bs4 import BeautifulSoup
from selenium import webdriverdef download(file_name, down_url):r = requests.get(down_url,stream=True)total_size = int(r.headers['Content-Length'])temp_size = 0try:with open(file_name, 'wb') as f:for chunk in r.iter_content(chunk_size=1024): #chunk_size #设置每次下载文件的大小temp_size += len(chunk)f.write(chunk)  #每一次循环存储一次下载下来的内容f.flush()done = int(50 * temp_size / total_size)sys.stdout.write("\r[%s%s] %d%%" % ('█' * done, ' ' * (50 - done), 100 * temp_size / total_size))sys.stdout.flush()   except:print('download failed') def main(url):driver = webdriver.PhantomJS()#url='http://www.radio.cn/pc-portal/sanji/zhibo_2.html?channelname=2&name=520799&title=radio#'driver.get(url)page = 0while page < 51:soup = BeautifulSoup(driver.page_source, "html.parser", from_encoding='utf-8')links = soup.find_all('a', onclick=re.compile(r"downLiveRecord"))for link in links:url = re.findall(r"cnvod.*m4a",str(link))print("page = %d, %s" % (page, url[0]))words = url[0].split('/')folder_name = words[-2]file_name = words[-1]#下载if os.path.exists(folder_name) == False:os.makedirs(folder_name)file_name = folder_name + r'/'+ file_namedown_url = r"http://"+str(url[0])download(file_name, down_url)#下一页try:driver.find_element_by_xpath("//a[contains(text(),'下一页')]").click()# selenium的xpath用法,找到包含“下一页”的a标签去点击except:print('load next page failed')page = page + 1time.sleep(2)print('finish')if __name__ == "__main__":root_url = "http://www.radio.cn/pc-portal/sanji/zhibo_2.html?channelname=2&name=520799&title=radio#"main(root_url)

结果

         

 

这篇关于爬虫入门--Python利用selenium下载中央广播电台FM广播节目的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1127696

相关文章

Python实现终端清屏的几种方式详解

《Python实现终端清屏的几种方式详解》在使用Python进行终端交互式编程时,我们经常需要清空当前终端屏幕的内容,本文为大家整理了几种常见的实现方法,有需要的小伙伴可以参考下... 目录方法一:使用 `os` 模块调用系统命令方法二:使用 `subprocess` 模块执行命令方法三:打印多个换行符模拟

Python实现MQTT通信的示例代码

《Python实现MQTT通信的示例代码》本文主要介绍了Python实现MQTT通信的示例代码,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一... 目录1. 安装paho-mqtt库‌2. 搭建MQTT代理服务器(Broker)‌‌3. pytho

基于Python开发一个图像水印批量添加工具

《基于Python开发一个图像水印批量添加工具》在当今数字化内容爆炸式增长的时代,图像版权保护已成为创作者和企业的核心需求,本方案将详细介绍一个基于PythonPIL库的工业级图像水印解决方案,有需要... 目录一、系统架构设计1.1 整体处理流程1.2 类结构设计(扩展版本)二、核心算法深入解析2.1 自

从入门到进阶讲解Python自动化Playwright实战指南

《从入门到进阶讲解Python自动化Playwright实战指南》Playwright是针对Python语言的纯自动化工具,它可以通过单个API自动执行Chromium,Firefox和WebKit... 目录Playwright 简介核心优势安装步骤观点与案例结合Playwright 核心功能从零开始学习

Python 字典 (Dictionary)使用详解

《Python字典(Dictionary)使用详解》字典是python中最重要,最常用的数据结构之一,它提供了高效的键值对存储和查找能力,:本文主要介绍Python字典(Dictionary)... 目录字典1.基本特性2.创建字典3.访问元素4.修改字典5.删除元素6.字典遍历7.字典的高级特性默认字典

Python自动化批量重命名与整理文件系统

《Python自动化批量重命名与整理文件系统》这篇文章主要为大家详细介绍了如何使用Python实现一个强大的文件批量重命名与整理工具,帮助开发者自动化这一繁琐过程,有需要的小伙伴可以了解下... 目录简介环境准备项目功能概述代码详细解析1. 导入必要的库2. 配置参数设置3. 创建日志系统4. 安全文件名处

使用Python构建一个高效的日志处理系统

《使用Python构建一个高效的日志处理系统》这篇文章主要为大家详细讲解了如何使用Python开发一个专业的日志分析工具,能够自动化处理、分析和可视化各类日志文件,大幅提升运维效率,需要的可以了解下... 目录环境准备工具功能概述完整代码实现代码深度解析1. 类设计与初始化2. 日志解析核心逻辑3. 文件处

python生成随机唯一id的几种实现方法

《python生成随机唯一id的几种实现方法》在Python中生成随机唯一ID有多种方法,根据不同的需求场景可以选择最适合的方案,文中通过示例代码介绍的非常详细,需要的朋友们下面随着小编来一起学习学习... 目录方法 1:使用 UUID 模块(推荐)方法 2:使用 Secrets 模块(安全敏感场景)方法

SQL server数据库如何下载和安装

《SQLserver数据库如何下载和安装》本文指导如何下载安装SQLServer2022评估版及SSMS工具,涵盖安装配置、连接字符串设置、C#连接数据库方法和安全注意事项,如混合验证、参数化查... 目录第一步:打开官网下载对应文件第二步:程序安装配置第三部:安装工具SQL Server Manageme

使用Python删除Excel中的行列和单元格示例详解

《使用Python删除Excel中的行列和单元格示例详解》在处理Excel数据时,删除不需要的行、列或单元格是一项常见且必要的操作,本文将使用Python脚本实现对Excel表格的高效自动化处理,感兴... 目录开发环境准备使用 python 删除 Excphpel 表格中的行删除特定行删除空白行删除含指定