采集网页数据保存到文本文件---爬取古诗文网站

2023-12-25 16:30

本文主要是介绍采集网页数据保存到文本文件---爬取古诗文网站,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

访问古诗文网站(https://so.gushiwen.org/mingju/)

会显示出这个页面,里面包含了很多的名句,点击某一个名句(比如点击无处不伤心,轻尘在玉琴)就会出现完整的古诗

我们点击鼠标右键,点击检查

点击copy selector

右击对应标签,选择Copy -> Copy selector,即可获得对应元素的CSS选择器。

body > div.main3 > div.left > div.sons > div:nth-child(1)

我们就会得到大致的路径,

将复制得到的CSS选择器粘贴在soup.select()中即可。

import requests
from bs4 import BeautifulSoup
import time# 函数1:请求网页
def page_request(url, ua):#user-agent就是请求头,否则不给出请求头网站是没有办法爬取的response = requests.get(url, headers=ua)#请求头就是我们传进来的ua,我们调用的时候就会把ua传进来html = response.content.decode('utf-8')#解码,用utf-8进行解码return html#请求网站,这个函数会把html代码返回回来,作为这个函数的结果值返回回来,返回回来的结果作为第二个函数的输入# 函数2:解析网页
def page_parse(html):#从里面解析出相关诗句的内容,上一个函数把html代码返回来,这个函数就可以对它进行解析soup = BeautifulSoup(html, 'lxml')#html是传过来的源代码,lxml你使用的是lxml解析器title = soup('title')#网页有title我们可以把title这个头拿出来# 诗句内容:诗句+出处+链接info = soup.select('body > div.main3 > div.left > div.sons > div.cont')#用select方法去获得标签,属性用.表示,如果查找id用#表示,我们得到了很多标签,返回的是一个列表,因为其中很多元素符合要求#通过这行语句你获得了许多div标签# 诗句链接sentence = soup.select('div.left > div.sons > div.cont > a:nth-of-type(1)')#div.cont下面的子标签a,并且要求这个子标签a是div.cont第一个子标签a,这行包括了href我们可以通过索引值把href取出来,就可以得到网页的链接地址#第一个链接就会有href,就是诗词的链接地址sentence_list = []href_list = []for i in range(len(info)):curInfo = info[i]#从info[0]开始获得第一个poemInfo = ''poemInfo = poemInfo.join(curInfo.get_text().split('\n'))#.join是进行字符串的链接操作的  .get_text方法会把当前div中的文本都提取出来,我们会提取出来很多行,用split用换行符进行拆分,就会拆分出三个字符串,把三个字符串拼接起来sentence_list.append(poemInfo)#把刚才得到的一行加到列表里面去,每次遍历一遍就会加一个,列表中就会有许多诗句的基本信息href = sentence[i].get('href')#sentence是以列表的形式返回的,sentence[0]href_list.append("https://so.gushiwen.org" + href)#还需要加上网站的域名前缀,href不带有域名前缀,得到完整的地址# todo sentence 和 poet数量可能不符# sentence = soup.select('div.left > div.sons > div.cont > a:nth-of-type(1)')# poet = soup.select('div.left > div.sons > div.cont > a:nth-of-type(2)')# for i in range(len(sentence)):#     temp = sentence[i].get_text() + "---" + poet[i].get_text()#     sentence_list.append(temp)#     href = sentence[i].get('href')#     href_list.append("https://so.gushiwen.org" + href)return [href_list, sentence_list]#把两个结构返回去,herf包含了一个又一个的链接,而sentence,会把一个句子一个句子返回def save_txt(info_list):#把得到的文本文件保存起来,我们要得到sentence.txtimport jsonwith open(r'sentence.txt', 'a', encoding='utf-8') as txt_file:#python基本打开文件的模式a代表追加for element in info_list[1]:#infolist是整个列表的两个,它包含了两个子列表,infolist【1】就代表sentencelist,它会把sentence——list中每个元素遍历一遍txt_file.write(json.dumps(element, ensure_ascii=False) + '\n\n')
#遍历一遍,把每一行句子都用.dumps写到文本文件里面去
# 子网页处理函数:进入并解析子网页/请求子网页
def sub_page_request(info_list):#我们访问古诗文网站,还要点进去,info_list包含两个列表,第一个是链接的列表,第二个是诗句的列表subpage_urls = info_list[0]#这个包含了所有的链接地址ua = {#有请求头才可以顺利的爬取'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/46.0.2490.86 Safari/537.36'}sub_html = []for url in subpage_urls:html = page_request(url, ua)#page_requests的功能给出请求的地址他会把html的代码返回回来,给出url地址返回htmlsub_html.append(html)#sub_html包含了一个又一个元素,每个元素都是一段html代码,html代码是具体点到某个诗句的网页的代码return sub_html#是个列表,包含了很多元素,每个元素都是一个子网页的html代码# 子网页处理函数:解析子网页,爬取诗句内容
def sub_page_parse(sub_html):#返回的是一大堆,我只想要赏析代码poem_list = []for html in sub_html:#把每个html代码进行遍历,赋值给htmlsoup = BeautifulSoup(html, 'lxml')#用lxml解析器对html代码进行解析poem = soup.select('div.left > div.sons > div.cont > div.contson')if len(poem) == 0:continuepoem = poem[0].get_text()#poem是列表poem_list.append(poem.strip())#去掉空格return poem_list# 子网页处理函数:保存诗句到txt
def sub_page_save(poem_list):#poem_list得到的是个列表,每个元素都是一行import jsonwith open(r'poems.txt', 'a', encoding='utf-8') as txt_file:for element in poem_list:#poem_是个列表txt_file.write(json.dumps(element, ensure_ascii=False) + '\n\n')if __name__ == '__main__':print("**************开始爬取古诗文网站********************")ua = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/46.0.2490.86 Safari/537.36'}poemCount = 0for i in range(1, 5):#依次执行# todo 链接错误# url = 'https://so.gushiwen.org/mingju/default.aspx?p=%d&c=&t=' % (i)url = 'https://so.gushiwen.cn/mingjus/default.aspx?page=%d' % iprint(url)# time.sleep(1)html = page_request(url, ua)#把url传进去,请求头传进去,获取html代码,这是传入的初始网页info_list = page_parse(html)#我们把html代码传进去,就可以对代码进行解析save_txt(info_list)# 开始处理子网页---------------------上面处理的都是主网页,下面要处理子网页,也就是点进去之后的网页print("开始解析第%d" % i + "页")# 开始解析名句子网页sub_html = sub_page_request(info_list)#info-list是经过page_list解析过得,就是把子网页的链接传进来了poem_list = sub_page_parse(sub_html)#对子网页html代码进行解析,解析出每个诗词的句子,它的解释赏析,放到poem_list里面sub_page_save(poem_list)poemCount += len(info_list[0])#爬取了多少行print("****************爬取完成***********************")print("共爬取%d" % poemCount + "个古诗词名句")print("共爬取%d" % poemCount + "个古诗词")

这篇关于采集网页数据保存到文本文件---爬取古诗文网站的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/536169

相关文章

网页解析 lxml 库--实战

lxml库使用流程 lxml 是 Python 的第三方解析库,完全使用 Python 语言编写,它对 XPath表达式提供了良好的支 持,因此能够了高效地解析 HTML/XML 文档。本节讲解如何通过 lxml 库解析 HTML 文档。 pip install lxml lxm| 库提供了一个 etree 模块,该模块专门用来解析 HTML/XML 文档,下面来介绍一下 lxml 库

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

烟火目标检测数据集 7800张 烟火检测 带标注 voc yolo

一个包含7800张带标注图像的数据集,专门用于烟火目标检测,是一个非常有价值的资源,尤其对于那些致力于公共安全、事件管理和烟花表演监控等领域的人士而言。下面是对此数据集的一个详细介绍: 数据集名称:烟火目标检测数据集 数据集规模: 图片数量:7800张类别:主要包含烟火类目标,可能还包括其他相关类别,如烟火发射装置、背景等。格式:图像文件通常为JPEG或PNG格式;标注文件可能为X

pandas数据过滤

Pandas 数据过滤方法 Pandas 提供了多种方法来过滤数据,可以根据不同的条件进行筛选。以下是一些常见的 Pandas 数据过滤方法,结合实例进行讲解,希望能帮你快速理解。 1. 基于条件筛选行 可以使用布尔索引来根据条件过滤行。 import pandas as pd# 创建示例数据data = {'Name': ['Alice', 'Bob', 'Charlie', 'Dav