python爬取小说并存储为txt文件

2024-06-03 10:36
文章标签 python 爬取 txt 存储 小说

本文主要是介绍python爬取小说并存储为txt文件,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

声明:本篇所有内容仅供学习和参考之用,禁止用于商业用途。任何人或组织不得将本仓库的内容用于非法用途或侵犯他人合法权益。本篇博客所涉及的爬虫技术仅用于学习和研究,不得用于对其他平台进行大规模爬虫或其他非法行为。对于因使用本篇内容而引起的任何法律责任,作者不承担任何责任。使用本篇的内容即表示您同意本免责声明的所有条款和条件。

调教kimi,写出来如下的代码,测试通过。具体网站请仔细看代码注释。
效果入下:
在这里插入图片描述

#!/usr/bin/env python
# -*- coding:utf-8 -*-
###
# File: /Users/simonliu/Documents/book/novel.py
# Project: /Users/simonliu/Documents/book
# Created Date: 2024-05-29 22:50:33
# Author: Simon Liu
# -----
# Last Modified: 2024-05-30 10:16:39
# Modified By: Simon Liu
# -----
# Copyright (c) 2024 SimonLiu Inc.
# 
# May the force be with you.
# -----
# HISTORY:
# Date      	By	Comments
# ----------	---	----------------------------------------------------------
###
import requests
from bs4 import BeautifulSoup
import re
import os# 自定义请求头
headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3"
}def get_book_title(chapter_list_url):response = requests.get(chapter_list_url, headers=headers)soup = BeautifulSoup(response.text, 'html.parser')# 从<meta property="og:title" content="......"/>标签中提取书名meta_tag = soup.find('meta', property="og:title")if meta_tag and "content" in meta_tag.attrs:return meta_tag['content']return "Unknown Book Title"def get_chapter_content(chapter_url):response = requests.get(chapter_url, headers=headers)soup = BeautifulSoup(response.text, 'html.parser')# 从<div id="content">标签中提取正文content_div = soup.find('div', id="content")if content_div:# 获取正文文本,并删除以“笔趣阁 www.52bqg.info”开头的那一行内容chapter_text = content_div.get_text(separator='\n')chapter_text = re.sub(r'^笔趣阁 www\.52bqg\.info.*\n', '', chapter_text, flags=re.M)return chapter_textelse:return "正文内容未找到"def get_chapter_links(chapter_list_url):response = requests.get(chapter_list_url, headers=headers)soup = BeautifulSoup(response.text, 'html.parser')chapter_links = soup.find_all('a', href=True)chapters = []chapter_pattern = re.compile(r'第(\d+)章')for link in chapter_links:link_text = link.text.strip()match = chapter_pattern.search(link_text)if match:chapter_number = int(match.group(1))if chapter_number >= 1:  # 确保是第1章或之后的章节chapters.append((link_text, link['href']))first_chapter_index = next((i for i, (title, _) in enumerate(chapters) if '第1章' in title), None)if first_chapter_index is not None:chapters = chapters[first_chapter_index:]return chaptersdef save_chapters_to_file(chapters, book_title):filename = book_title + '.txt'with open(filename, 'w', encoding='utf-8') as file:for title, chapter_relative_url in chapters:chapter_url = chapter_list_url.rstrip('/') + '/' + chapter_relative_url.strip()chapter_text = get_chapter_content(chapter_url)# 打印章节信息到控制台print(f'章节标题: {title}')print(f'章节URL: {chapter_url}')# 计算中文汉字的字数chinese_chars = re.findall(r'[\u4e00-\u9fff]+', chapter_text)total_chars = sum(len(re.sub(r'[\n\t ]', '', line)) for line in chinese_chars)print(f'章节正文字数: {total_chars}\n')# 写入章节标题和正文到文件file.write(title + '\n')file.write(chapter_text)file.write('\n')  # 添加空行以分隔章节# 打印txt文件的名称和大小filesize = os.path.getsize(filename)print(f'文件已保存: {filename}')print(f'文件大小: {filesize} 字节')def main():global chapter_list_url# 用户输入小说的章节列表页面URLchapter_list_url = input("请输入小说的章节列表页面URL: ")# 获取并打印书名book_title = get_book_title(chapter_list_url)print(f'书名: {book_title}')# 获取章节链接chapters = get_chapter_links(chapter_list_url)# 保存章节到文件save_chapters_to_file(chapters, book_title)if __name__ == "__main__":main()

这篇关于python爬取小说并存储为txt文件的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1026745

相关文章

Python 字符串占位

在Python中,可以使用字符串的格式化方法来实现字符串的占位。常见的方法有百分号操作符 % 以及 str.format() 方法 百分号操作符 % name = "张三"age = 20message = "我叫%s,今年%d岁。" % (name, age)print(message) # 我叫张三,今年20岁。 str.format() 方法 name = "张三"age

【服务器运维】MySQL数据存储至数据盘

查看磁盘及分区 [root@MySQL tmp]# fdisk -lDisk /dev/sda: 21.5 GB, 21474836480 bytes255 heads, 63 sectors/track, 2610 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytesSector size (logical/physical)

一道经典Python程序样例带你飞速掌握Python的字典和列表

Python中的列表(list)和字典(dict)是两种常用的数据结构,它们在数据组织和存储方面有很大的不同。 列表(List) 列表是Python中的一种有序集合,可以随时添加和删除其中的元素。列表中的元素可以是任何数据类型,包括数字、字符串、其他列表等。列表使用方括号[]表示,元素之间用逗号,分隔。 定义和使用 # 定义一个列表 fruits = ['apple', 'banana

Python应用开发——30天学习Streamlit Python包进行APP的构建(9)

st.area_chart 显示区域图。 这是围绕 st.altair_chart 的语法糖。主要区别在于该命令使用数据自身的列和指数来计算图表的 Altair 规格。因此,在许多 "只需绘制此图 "的情况下,该命令更易于使用,但可定制性较差。 如果 st.area_chart 无法正确猜测数据规格,请尝试使用 st.altair_chart 指定所需的图表。 Function signa

python实现最简单循环神经网络(RNNs)

Recurrent Neural Networks(RNNs) 的模型: 上图中红色部分是输入向量。文本、单词、数据都是输入,在网络里都以向量的形式进行表示。 绿色部分是隐藏向量。是加工处理过程。 蓝色部分是输出向量。 python代码表示如下: rnn = RNN()y = rnn.step(x) # x为输入向量,y为输出向量 RNNs神经网络由神经元组成, python

python 喷泉码

因为要完成毕业设计,毕业设计做的是数据分发与传输的东西。在网络中数据容易丢失,所以我用fountain code做所发送数据包的数据恢复。fountain code属于有限域编码的一部分,有很广泛的应用。 我们日常生活中使用的二维码,就用到foutain code做数据恢复。你遮住二维码的四分之一,用手机的相机也照样能识别。你遮住的四分之一就相当于丢失的数据包。 为了实现并理解foutain

python 点滴学

1 python 里面tuple是无法改变的 tuple = (1,),计算tuple里面只有一个元素,也要加上逗号 2  1 毕业论文改 2 leetcode第一题做出来

Python爬虫-贝壳新房

前言 本文是该专栏的第32篇,后面会持续分享python爬虫干货知识,记得关注。 本文以某房网为例,如下图所示,采集对应城市的新房房源数据。具体实现思路和详细逻辑,笔者将在正文结合完整代码进行详细介绍。接下来,跟着笔者直接往下看正文详细内容。(附带完整代码) 正文 地址:aHR0cHM6Ly93aC5mYW5nLmtlLmNvbS9sb3VwYW4v 目标:采集对应城市的

python 在pycharm下能导入外面的模块,到terminal下就不能导入

项目结构如下,在ic2ctw.py 中导入util,在pycharm下不报错,但是到terminal下运行报错  File "deal_data/ic2ctw.py", line 3, in <module>     import util 解决方案: 暂时方案:在终端下:export PYTHONPATH=/Users/fujingling/PycharmProjects/PSENe

将一维机械振动信号构造为训练集和测试集(Python)

从如下链接中下载轴承数据集。 https://www.sciencedirect.com/science/article/pii/S2352340918314124 import numpy as npimport scipy.io as sioimport matplotlib.pyplot as pltimport statistics as statsimport pandas