Python高级进阶--多线程爬取下载小说(基于笔趣阁的爬虫程序)

本文主要是介绍Python高级进阶--多线程爬取下载小说(基于笔趣阁的爬虫程序),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录

一、前言

1、写在前面

2、本帖内容

 二、编写代码

1、抓包分析

a、页面分析

b、明确需求

c、抓包搜寻

2、编写爬虫代码

a、获取网页源代码

b、提取所有章节的网页源代码

c、下载每个章节的小说

d、 清洗文件名

e、删除子文件夹

f、将下载的小说的所有txt文件夹放入所创建的文件夹路径

g、多线程下载

3、所有代码

 三、后言

1、报错情况

2、线程不是越多越好

3、想要下载自己喜欢的小说

4、如何快速调试代码

5、建议 


一、前言

1、写在前面

        本帖采用了多线程的技术来加快爬虫的下载速度,对多线程不了解的同学可以自行百度或者关注本博主,博主后续将会出一篇详细的帖子来介绍多线程。此外,本帖还采用了正则表达式、Python的文件操作和xPath分析。不了解的小伙伴们也可以自行百度或者关注本博主,后续都会写几篇详细的帖子进行介绍!!!

2、本帖内容

        笔趣阁(新笔趣阁_书友最值得收藏的网络小说阅读网 - TXT下载网)是一个资源丰富的小说网站,里面的小说全部免费。因此,对其的爬取比较简单,不需要用逆向技术。对其的爬取,仅仅只需url,header请求头中的任何信息都用不上。本文详细讲解爬取里面的一本免费小说--《NBA:开局一张三分体验卡》,读者可以根据本帖,修改部分代码,爬取自己想要的小说。

笔趣阁现已更新为新笔趣阁,其首页:

   本帖爬取的小说为《NBA:开局一张三分体验卡》(https://www.shuangliusc.com/html/469472/),其界面为:

 二、编写代码

1、抓包分析

        爬虫的第一步都是抓包分析(也就是分析网页,从网页源代码中找到自己想要的内容)。 

a、页面分析

(1)页面中有最新章节目录和所有章节目录(这里只需要所有章节目录!)

(2)点击一个章节就会跳转到其具体页面,但其小说内容可能只是该章节的第一部分(一个章节可能存在两至三个部分的小说!)

(3)在一个章节的具体页面中存在下一页,点击下一页会跳转到该章节的下一个部分(这样可以实现获取同一个章节的所有内容!)

(4)直到该章节的最后一个部分,下一页就会变成下一章(这意味着当一个章节的所有部分的小说内容被爬取完后,将不会有下一页,获取下一页的url的列表变空。可以通过此来判断是否爬取完毕一个章节的所有内容!)

目录页:

具体章节页:

b、明确需求

        根据以上页面分析,分析网页源代码,找到以下需求。 

  • 要获取到目录页中所有章节的链接
  • 要获取到下一页链接
  • 要找到小说内容所在网页源代码的所在位置
  • 要找到小说章节标题所在网页源代码的所在位置
  • 同一章节的小说内容放在一个txt文档中
  • 为加快速度,采取多线程爬取下载

c、抓包搜寻

        根据以上需求,分析网页源代码,找到想要的内容。 

步骤:

  1. 在目录页面,按下F12,打开开发者界面
  2. 点击开发者界面左上角的鼠标箭头
  3. 将箭头移到所有章节部分的一个章节上并点击一下
  4. 在开发者界面将会出现此部分的网页源代码

          通过以上步骤,抓包寻找,可以分别找到需求部分所要内容:  

  • 要获取到目录页中所有章节的链接及标题所在源代码的位置
  • 要获取到下一页链接

  • 具体章节内容的标题

2、编写爬虫代码

        根据上面的抓包分析,可以编写爬虫代码。

具体思路: 

  1. 获取目录也中所有章节的源代码
  2. 获取具体章节的小说内容和标题
  3. 将获取到的小说内容根据顺序摆放下载到一个txt文档中
  4. 获取到下一页的链接
  5. 将同一章节的内容合并到一个txt文档中
  6. 采取多线程下载
  7. 最后以一个文件夹保存
  8. 文件名不能存在特殊字符,需要进行清洗

 a、获取网页源代码

import os.path
from lxml import etree
import requests
# 1、获取小说目录页的网页源代码
index_url = 'https://www.shuangliusc.com/html/555664/'
r = requests.get(index_url, headers=header)

 b、提取所有章节的网页源代码

def gen_urls(index_url, q,p):# 定义全局变量,gen_urls_done用于判断小说是否下载完成global gen_urls_doner = requests.get(url=index_url)# 获取目录页的各个目录及其标题html = etree.HTML(r.text)links = html.xpath('//div[@class="section-box"]//ul[@id="section-list"]//a/@href')titles = html.xpath('//div[@class="section-box"]//ul[@id="section-list"]//a/text()')# 将标题装入一个队列中,为了下载时可以保持顺序,不会乱章for title in titles:p.put(title)# 将链接装入另一个队列,为了下载时可以保持顺序,不会乱章for link in links:link = regular_link + linkq.put(link)# 所有链接都已获取完毕并装入队列中gen_urls_done = True

c、下载每个章节的小说

def download_file(q,p):while True:# 链接队列为空且gen_urls_done为真时,下载完成if q.empty() and gen_urls_done:print("小说已全部下载完成...")breakelse:# 获取队列的第一个链接和标题cur_url  = q.get()file_name = p.get()# 清洗文件名file_name = clean_filename(file_name)# 采取当前时间作为文件夹保存同一章节下载的小说内容# 设置源文件夹和目标文件夹# 定义父文件夹路径base_folder = r'C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说'# 获取当前时间now = time.perf_counter()# 格式化时间字符串,例如 "2024-02-11_031559"folder_name = str(now)# 根据需求更改路径,这里使用之前定义的父文件夹路径source_folder = os.path.join(base_folder, folder_name)# 创建文件夹try:# 使用exist_ok=True避免目录已存在的异常os.makedirs(source_folder, exist_ok=True)except Exception as e:print(f"文件创建错误: {e}")# 将同一章节的小说内容和标题全都下载到一个txt文档中while True:# 获取具体章节的小说内容和标题,并将其放入一个txt文档中# 如何将同一章节的所有内容合并到一个txt文档?# 思路:将同一章节获取到的每部分的内容都保存在同一个文件夹(以当前时间命名)中# 再将该文件夹中的所有txt文档合并该文件夹的上一级文件夹中以该章节名进行命名的txt文档中# 最后删除这些文件夹(以当前时间命名)r = requests.get(cur_url)html = etree.HTML(r.text)next_page = html.xpath('//div[@class="section-opt m-bottom-opt"]//a[text()="下一页"]/@href')content = html.xpath('//div[@class="container"]//div[@class="content"]/text()')# 去掉小说内容中的特殊字符content = "".join(content).replace('\xa0','\n').strip()# 将章节的标题的特殊字符进行去除title = html.xpath('//h1[@class="title"]/text()')[0]title = clean_filename(title)# 下载小说内容with open(f'{source_folder}/{title}.txt', 'a',encoding='utf-8') as f:f.write(title+'\n\n')f.write(content+'\n\n')print(f'{threading.current_thread().name}已完成...{title}的下载')# 如果下一页的链接不存在,则跳出。也就是该章节的所有部分均已下载完毕!if len(next_page) == 0:break# 获取下一页的内容next_page = regular_link + next_page[0]cur_url = next_page# 将同一章节中的内容合并到一个txt文档中target_folder = "C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说"# 指定合并后的文件名(确保该文件不存在于temp文件夹内,避免被删除)combined_file_path = os.path.join(target_folder, f'{file_name}.txt')# 确保目标文件夹存在os.makedirs(target_folder, exist_ok=True)# 遍历文件夹中的所有.txt文件with open(combined_file_path, 'w', encoding='utf-8') as combined_file:for filename in os.listdir(source_folder):file_path = os.path.join(source_folder, filename)# 如果是文件且后缀是.txt就进行处理if os.path.isfile(file_path) and filename.endswith('.txt'):with open(file_path, 'r', encoding='utf-8') as file:combined_file.write(file.read() + '\n')  # 将内容写入合并的文件os.remove(file_path)  # 删除已经合并的文件

d、 清洗文件名

def clean_filename(filename):# 以下正则表达式匹配有效的文件名字符,包括中文、英文、数字以及“-_(). ”# 可以继续加入任何其他可接受的字符pattern = re.compile(r'[^a-zA-Z0-9\u4e00-\u9fa5\-\_\.\(\)\s]')cleaned_filename = re.sub(pattern, '', filename)return cleaned_filename

e、删除子文件夹

# 删除子文件夹
def move_off():parent_folder_path = 'C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说'# 检查文件夹是否存在if os.path.exists(parent_folder_path):# 遍历该文件夹for entry in os.listdir(parent_folder_path):# 构建完整的文件/文件夹路径full_path = os.path.join(parent_folder_path, entry)# 检查这个路径是否是一个文件夹if os.path.isdir(full_path):# 删除文件夹shutil.rmtree(full_path)print(f"子文件夹 '{full_path}' 已被删除。")else:print(f"父文件夹 '{parent_folder_path}' 不存在。")

f、将下载的小说的所有txt文件夹放入所创建的文件夹路径

def combine_file():# 指定源文件夹路径source_folder_path = 'C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说'# 指定目标文件夹路径target_folder_path = 'C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说/nba开局一张三分体验卡'  # 你要移动到的新文件夹路径# 检查目标文件夹是否存在,如果不存在,则创建它if not os.path.exists(target_folder_path):os.makedirs(target_folder_path)# 遍历源文件夹for entry in os.listdir(source_folder_path):# 检查文件扩展名是否为.txtif entry.lower().endswith('.txt'):# 构建完整的文件路径full_file_path = os.path.join(source_folder_path, entry)# 构建目标文件路径target_file_path = os.path.join(target_folder_path, entry)# 移动文件shutil.move(full_file_path, target_file_path)# 输出完成的消息print(f"所有的.txt文件已经从'{source_folder_path}'移动到'{target_folder_path}'。")

g、多线程下载

# 主线程
def main():# th1是获取链接index_url = 'https://www.shuangliusc.com/html/555664/'q = Queue(maxsize=2500)p = Queue(maxsize=2500)th1 = threading.Thread(target=gen_urls, args=(index_url, q, p))th1.start()threads = [th1]# th2是下载小说,采取循环的方式,一共有20个线程执行下载小说for i in range(20):th2 = threading.Thread(target=download_file,args=(q, p),name=f"线程{i}")th2.start()threads.append(th2)# 等待上面所有的线程完成for thread in threads:thread.join()# 以上所有线程完成后调用move_off,此处可以不用线程,直接调用函数也可,但速度太慢。# 注:此处由于使用的是多线程操作,存在多个线程对一个文件夹进行操作,以至于报错,但不影响最后需要的结果# 报错是因为一个文件夹已经被一个线程操作完了,而另一个线程也想对其操作但找不到该文件夹,以至于报错。threads2 = []for i in range(10):th3 = threading.Thread(target=move_off)th3.start()threads2.append(th3)for thread in threads2:thread.join()# 所有线程完成后,执行combine_file函数combine_file()
if __name__ == '__main__':main()

3、所有代码

注:此代码存在一点问题,请看后言的建议部分!!!

import os
import pprint
import queue
import re
import shutil
import string
import threading
import time
import requests
from lxml import etree
from  queue import Queue
import os
from datetime import datetime
lock = threading.Lock()
# 固定链接
regular_link = 'https://www.shuangliusc.com'
gen_urls_done = False
# 清洗文件名
def clean_filename(filename):# 以下正则表达式匹配有效的文件名字符,包括中文、英文、数字以及“-_(). ”# 可以继续加入任何其他可接受的字符pattern = re.compile(r'[^a-zA-Z0-9\u4e00-\u9fa5\-\_\.\(\)\s]')cleaned_filename = re.sub(pattern, '', filename)return cleaned_filename
# 1、获取目录页中的各个目录的链接
# 需要小说目录的链接和一个装各个目录的链接的队列
def gen_urls(index_url, q,p):# 装入全局变量global gen_urls_doner = requests.get(url=index_url)# 获取目录页的各个目录及其标题html = etree.HTML(r.text)links = html.xpath('//div[@class="section-box"]//ul[@id="section-list"]//a/@href')titles = html.xpath('//div[@class="section-box"]//ul[@id="section-list"]//a/text()')# 将标题装入一个队列中for title in titles:p.put(title)# 将链接装入队列,为了下载时可以保持顺序,不会乱章for link in links:link = regular_link + linkq.put(link)# 所有链接都已获取完毕并装入队列中gen_urls_done = True
# 下载该章节
# 传入下载链接和章节名称的队列,以及下载路径
def download_file(q,p):while True:# 链接队列为空且gen_urls_done为真时,下载完成if q.empty() and gen_urls_done:print("小说已全部下载完成...")breakelse:# 获取队列的第一个链接和标题cur_url  = q.get()file_name = p.get()# 清洗文件名file_name = clean_filename(file_name)# 采取当前时间作为文件夹保存同一章节下载的小说内容# 设置源文件夹和目标文件夹# 定义父文件夹路径base_folder = r'C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说'# 获取当前时间now = time.perf_counter()# 格式化时间字符串,例如 "2024-02-11_031559"folder_name = str(now)# 根据需求更改路径,这里使用之前定义的父文件夹路径source_folder = os.path.join(base_folder, folder_name)# 创建文件夹try:# 使用exist_ok=True避免目录已存在的异常os.makedirs(source_folder, exist_ok=True)except Exception as e:print(f"文件创建错误: {e}")# 将同一章节的小说内容和标题全都下载到一个txt文档中while True:# 获取具体章节的小说内容和标题,并将其放入一个txt文档中# 如何将同一章节的所有内容合并到一个txt文档?# 思路:将同一章节获取到的每部分的内容都保存在同一个文件夹(以当前时间命名)中# 再将该文件夹中的所有txt文档合并该文件夹的上一级文件夹中以该章节名进行命名的txt文档中# 最后删除这些文件夹(以当前时间命名)r = requests.get(cur_url)html = etree.HTML(r.text)next_page = html.xpath('//div[@class="section-opt m-bottom-opt"]//a[text()="下一页"]/@href')content = html.xpath('//div[@class="container"]//div[@class="content"]/text()')# 去掉小说内容中的特殊字符content = "".join(content).replace('\xa0','\n').strip()# 将章节的标题的特殊字符进行去除title = html.xpath('//h1[@class="title"]/text()')[0]title = clean_filename(title)# 下载小说内容with open(f'{source_folder}/{title}.txt', 'a',encoding='utf-8') as f:f.write(title+'\n\n')f.write(content+'\n\n')print(f'{threading.current_thread().name}已完成...{title}的下载')# 如果下一页的链接不存在,则跳出。也就是该章节的所有部分均已下载完毕!if len(next_page) == 0:break# 获取下一页的内容next_page = regular_link + next_page[0]cur_url = next_page# 将同一章节中的内容合并到一个txt文档中target_folder = "C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说"# 指定合并后的文件名(确保该文件不存在于temp文件夹内,避免被删除)combined_file_path = os.path.join(target_folder, f'{file_name}.txt')# 确保目标文件夹存在os.makedirs(target_folder, exist_ok=True)# 遍历文件夹中的所有.txt文件with open(combined_file_path, 'w', encoding='utf-8') as combined_file:for filename in os.listdir(source_folder):file_path = os.path.join(source_folder, filename)# 如果是文件且后缀是.txt就进行处理if os.path.isfile(file_path) and filename.endswith('.txt'):with open(file_path, 'r', encoding='utf-8') as file:combined_file.write(file.read() + '\n')  # 将内容写入合并的文件os.remove(file_path)  # 删除已经合并的文件
# 删除子文件夹
def move_off():parent_folder_path = 'C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说'# 检查文件夹是否存在if os.path.exists(parent_folder_path):# 遍历该文件夹for entry in os.listdir(parent_folder_path):# 构建完整的文件/文件夹路径full_path = os.path.join(parent_folder_path, entry)# 检查这个路径是否是一个文件夹if os.path.isdir(full_path):# 删除文件夹shutil.rmtree(full_path)print(f"子文件夹 '{full_path}' 已被删除。")else:print(f"父文件夹 '{parent_folder_path}' 不存在。")
def combine_file():# 指定源文件夹路径source_folder_path = 'C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说'# 指定目标文件夹路径target_folder_path = 'C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说/nba开局一张三分体验卡'  # 你要移动到的新文件夹路径# 检查目标文件夹是否存在,如果不存在,则创建它if not os.path.exists(target_folder_path):os.makedirs(target_folder_path)# 遍历源文件夹for entry in os.listdir(source_folder_path):# 检查文件扩展名是否为.txtif entry.lower().endswith('.txt'):# 构建完整的文件路径full_file_path = os.path.join(source_folder_path, entry)# 构建目标文件路径target_file_path = os.path.join(target_folder_path, entry)# 移动文件shutil.move(full_file_path, target_file_path)# 输出完成的消息print(f"所有的.txt文件已经从'{source_folder_path}'移动到'{target_folder_path}'。")
# 主线程
def main():# th1是获取链接index_url = 'https://www.shuangliusc.com/html/555664/'q = Queue(maxsize=2500)p = Queue(maxsize=2500)th1 = threading.Thread(target=gen_urls, args=(index_url, q, p))th1.start()threads = [th1]# th2是下载小说,采取循环的方式,一共有20个线程执行下载小说for i in range(20):th2 = threading.Thread(target=download_file,args=(q, p),name=f"线程{i}")th2.start()threads.append(th2)# 等待上面所有的线程完成for thread in threads:thread.join()# 以上所有线程完成后调用move_off,此处可以不用线程,直接调用函数也可,但速度太慢。# 注:此处由于使用的是多线程操作,存在多个线程对一个文件夹进行操作,以至于报错,但不影响最后需要的结果# 报错是因为一个文件夹已经被一个线程操作完了,而另一个线程也想对其操作但找不到该文件夹,以至于报错。threads2 = []for i in range(10):th3 = threading.Thread(target=move_off)th3.start()threads2.append(th3)for thread in threads2:thread.join()# 所有线程完成后,执行combine_file函数combine_file()
if __name__ == '__main__':main()

部分运行结果截图:

 

 三、后言

1、报错情况

        因为此处采取多线程下载,容易出现多个线程对一个任务进行操作。一旦某个线程完成了对该任务的操作,该任务资源将会得到释放,则其他线程会因找不到对该操作的资源而进行报错。在运行过程中经常会看到报错情况,但这个是不要紧的,它不影响最终结果。这是由于代码没有进行更深一步的优化而引起的。

2、线程不是越多越好

        采取多线程会加快下载速度,但也不是线程越多越好。这要看个人电脑的CPU来决定线程的数量。一旦线程加多了,CPU因运转不够来而导致宕机,那就得不偿失了。博主采用小新系列的轻薄本,采用了30个线程就已经快跑到了CPU的极限了!请读者下载前自己测试一下自己的电脑可以跑多少个线程而不会超出CPU的负担,找到一个合适的值!!!

如何增加减少线程数量? 只需要修改一下所框选的数字即可!(数字表示采用多少个线程运行)

3、想要下载自己喜欢的小说

         需要进行以下操作:

  1. 找到自己喜欢的小说的目录页(不太情况的,可以看上面的截图)
  2. 将代码中的index_url改成你喜欢的小说的目录页
  3. 抓包分析一下,所需要的部分是否可以用以上的xPath提取到。不可以的话,进行修改
  4. 将文件的路径进行修改

4、如何快速调试代码

        由于下载的小说《NBA:开局一张三分体验卡》有2300多章,想要快速验证调试代码是否存在问题。可以将以下部分进行修改:不选择下载2300多章,可以定义想要下载多少章。

5、建议 

        在所有代码中,可以实现下载整本小说的所有章节。但由于章节数量过多,在下载线程跑完后,卡死在了删除多余的文件夹的多线程和移动txt文档的的函数中。如果要实现小数量(大约500章)可以快速的完成,但要实现大数量的下载,建议采取两个Python文件进行运行,一个跑下载小说,一个跑文件操作。当运行小说下载的Python程序完毕后,再去运行文件操作的Python!!!

 下载小说的Python程序

import os
import pprint
import queue
import re
import shutil
import string
import threading
import time
import requests
from lxml import etree
from  queue import Queue
import os
from datetime import datetime
lock = threading.Lock()
# 固定链接
regular_link = 'https://www.shuangliusc.com'
gen_urls_done = False
# 清洗文件名
def clean_filename(filename):# 以下正则表达式匹配有效的文件名字符,包括中文、英文、数字以及“-_(). ”# 可以继续加入任何其他可接受的字符pattern = re.compile(r'[^a-zA-Z0-9\u4e00-\u9fa5\-\_\.\(\)\s]')cleaned_filename = re.sub(pattern, '', filename)return cleaned_filename
# 1、获取目录页中的各个目录的链接
# 需要小说目录的链接和一个装各个目录的链接的队列
def gen_urls(index_url, q,p):# 装入全局变量global gen_urls_doner = requests.get(url=index_url)# 获取目录页的各个目录及其标题html = etree.HTML(r.text)links = html.xpath('//div[@class="section-box"]//ul[@id="section-list"]//a/@href')titles = html.xpath('//div[@class="section-box"]//ul[@id="section-list"]//a/text()')# 将标题装入一个队列中for title in titles:p.put(title)# 将链接装入队列,为了下载时可以保持顺序,不会乱章for link in links:link = regular_link + linkq.put(link)# 所有链接都已获取完毕并装入队列中gen_urls_done = True
# 下载该章节
# 传入下载链接和章节名称的队列,以及下载路径
def download_file(q,p):while True:# 链接队列为空且gen_urls_done为真时,下载完成if q.empty() and gen_urls_done:print("小说已全部下载完成...")breakelse:# 获取队列的第一个链接和标题cur_url  = q.get()file_name = p.get()# 清洗文件名file_name = clean_filename(file_name)# 采取当前时间作为文件夹保存同一章节下载的小说内容# 设置源文件夹和目标文件夹# 定义父文件夹路径base_folder = r'C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说'# 获取当前时间now = time.perf_counter()# 格式化时间字符串,例如 "2024-02-11_031559"folder_name = str(now)# 根据需求更改路径,这里使用之前定义的父文件夹路径source_folder = os.path.join(base_folder, folder_name)# 创建文件夹try:# 使用exist_ok=True避免目录已存在的异常os.makedirs(source_folder, exist_ok=True)except Exception as e:print(f"文件创建错误: {e}")# 将同一章节的小说内容和标题全都下载到一个txt文档中while True:# 获取具体章节的小说内容和标题,并将其放入一个txt文档中# 如何将同一章节的所有内容合并到一个txt文档?# 思路:将同一章节获取到的每部分的内容都保存在同一个文件夹(以当前时间命名)中# 再将该文件夹中的所有txt文档合并该文件夹的上一级文件夹中以该章节名进行命名的txt文档中# 最后删除这些文件夹(以当前时间命名)r = requests.get(cur_url)html = etree.HTML(r.text)next_page = html.xpath('//div[@class="section-opt m-bottom-opt"]//a[text()="下一页"]/@href')content = html.xpath('//div[@class="container"]//div[@class="content"]/text()')# 去掉小说内容中的特殊字符content = "".join(content).replace('\xa0','\n').strip()# 将章节的标题的特殊字符进行去除title = html.xpath('//h1[@class="title"]/text()')[0]title = clean_filename(title)# 下载小说内容with open(f'{source_folder}/{title}.txt', 'a',encoding='utf-8') as f:f.write(title+'\n\n')f.write(content+'\n\n')print(f'{threading.current_thread().name}已完成...{title}的下载')# 如果下一页的链接不存在,则跳出。也就是该章节的所有部分均已下载完毕!if len(next_page) == 0:break# 获取下一页的内容next_page = regular_link + next_page[0]cur_url = next_page# 将同一章节中的内容合并到一个txt文档中target_folder = "C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说"# 指定合并后的文件名(确保该文件不存在于temp文件夹内,避免被删除)combined_file_path = os.path.join(target_folder, f'{file_name}.txt')# 确保目标文件夹存在os.makedirs(target_folder, exist_ok=True)# 遍历文件夹中的所有.txt文件with open(combined_file_path, 'w', encoding='utf-8') as combined_file:for filename in os.listdir(source_folder):file_path = os.path.join(source_folder, filename)# 如果是文件且后缀是.txt就进行处理if os.path.isfile(file_path) and filename.endswith('.txt'):with open(file_path, 'r', encoding='utf-8') as file:combined_file.write(file.read() + '\n')  # 将内容写入合并的文件os.remove(file_path)  # 删除已经合并的文件
# 主线程
def main():# th1是获取链接index_url = 'https://www.shuangliusc.com/html/555664/'q = Queue(maxsize=2500)p = Queue(maxsize=2500)th1 = threading.Thread(target=gen_urls, args=(index_url, q, p))th1.start()# th2是下载小说,采取循环的方式,一共有20个线程执行下载小说for i in range(20):th2 = threading.Thread(target=download_file,args=(q, p),name=f"线程{i}")th2.start()
if __name__ == '__main__':main()

进行文件操作的Python程序

import shutil
import threading
import time
import requests
from lxml import etree
from  queue import Queue
import os
def move_off():parent_folder_path = "C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说"# 检查文件夹是否存在if os.path.exists(parent_folder_path):# 遍历该文件夹for entry in os.listdir(parent_folder_path):# 构建完整的文件/文件夹路径full_path = os.path.join(parent_folder_path, entry)# 检查这个路径是否是一个文件夹if os.path.isdir(full_path):# 删除文件夹shutil.rmtree(full_path)print(f"子文件夹 '{full_path}' 已被删除。")else:print(f"父文件夹 '{parent_folder_path}' 不存在。")
def combine_file():# 指定源文件夹路径source_folder_path = 'C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说'# 指定目标文件夹路径target_folder_path = 'C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说/nba开局一张三分体验卡'  # 你要移动到的新文件夹路径# 检查目标文件夹是否存在,如果不存在,则创建它if not os.path.exists(target_folder_path):os.makedirs(target_folder_path)# 遍历源文件夹for entry in os.listdir(source_folder_path):# 检查文件扩展名是否为.txtif entry.lower().endswith('.txt'):# 构建完整的文件路径full_file_path = os.path.join(source_folder_path, entry)# 构建目标文件路径target_file_path = os.path.join(target_folder_path, entry)# 移动文件shutil.move(full_file_path, target_file_path)# 输出完成的消息print(f"所有的.txt文件已经从'{source_folder_path}'移动到'{target_folder_path}'。")
# 主线程
def main():threads2 = []for i in range(20):th3 = threading.Thread(target=move_off)th3.start()threads2.append(th3)for thread in threads2:thread.join()# 所有线程完成后,执行combine_file函数combine_file()
if __name__ == '__main__':main()

注:本帖用于学习交流,禁止商用!!!

这篇关于Python高级进阶--多线程爬取下载小说(基于笔趣阁的爬虫程序)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/703862

相关文章

Python调用Orator ORM进行数据库操作

《Python调用OratorORM进行数据库操作》OratorORM是一个功能丰富且灵活的PythonORM库,旨在简化数据库操作,它支持多种数据库并提供了简洁且直观的API,下面我们就... 目录Orator ORM 主要特点安装使用示例总结Orator ORM 是一个功能丰富且灵活的 python O

Python使用国内镜像加速pip安装的方法讲解

《Python使用国内镜像加速pip安装的方法讲解》在Python开发中,pip是一个非常重要的工具,用于安装和管理Python的第三方库,然而,在国内使用pip安装依赖时,往往会因为网络问题而导致速... 目录一、pip 工具简介1. 什么是 pip?2. 什么是 -i 参数?二、国内镜像源的选择三、如何

JavaScript中的reduce方法执行过程、使用场景及进阶用法

《JavaScript中的reduce方法执行过程、使用场景及进阶用法》:本文主要介绍JavaScript中的reduce方法执行过程、使用场景及进阶用法的相关资料,reduce是JavaScri... 目录1. 什么是reduce2. reduce语法2.1 语法2.2 参数说明3. reduce执行过程

python使用fastapi实现多语言国际化的操作指南

《python使用fastapi实现多语言国际化的操作指南》本文介绍了使用Python和FastAPI实现多语言国际化的操作指南,包括多语言架构技术栈、翻译管理、前端本地化、语言切换机制以及常见陷阱和... 目录多语言国际化实现指南项目多语言架构技术栈目录结构翻译工作流1. 翻译数据存储2. 翻译生成脚本

如何通过Python实现一个消息队列

《如何通过Python实现一个消息队列》这篇文章主要为大家详细介绍了如何通过Python实现一个简单的消息队列,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录如何通过 python 实现消息队列如何把 http 请求放在队列中执行1. 使用 queue.Queue 和 reque

Python如何实现PDF隐私信息检测

《Python如何实现PDF隐私信息检测》随着越来越多的个人信息以电子形式存储和传输,确保这些信息的安全至关重要,本文将介绍如何使用Python检测PDF文件中的隐私信息,需要的可以参考下... 目录项目背景技术栈代码解析功能说明运行结php果在当今,数据隐私保护变得尤为重要。随着越来越多的个人信息以电子形

使用Python快速实现链接转word文档

《使用Python快速实现链接转word文档》这篇文章主要为大家详细介绍了如何使用Python快速实现链接转word文档功能,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 演示代码展示from newspaper import Articlefrom docx import

Python Jupyter Notebook导包报错问题及解决

《PythonJupyterNotebook导包报错问题及解决》在conda环境中安装包后,JupyterNotebook导入时出现ImportError,可能是由于包版本不对应或版本太高,解决方... 目录问题解决方法重新安装Jupyter NoteBook 更改Kernel总结问题在conda上安装了

Python如何计算两个不同类型列表的相似度

《Python如何计算两个不同类型列表的相似度》在编程中,经常需要比较两个列表的相似度,尤其是当这两个列表包含不同类型的元素时,下面小编就来讲讲如何使用Python计算两个不同类型列表的相似度吧... 目录摘要引言数字类型相似度欧几里得距离曼哈顿距离字符串类型相似度Levenshtein距离Jaccard相

SpringBoot中使用 ThreadLocal 进行多线程上下文管理及注意事项小结

《SpringBoot中使用ThreadLocal进行多线程上下文管理及注意事项小结》本文详细介绍了ThreadLocal的原理、使用场景和示例代码,并在SpringBoot中使用ThreadLo... 目录前言技术积累1.什么是 ThreadLocal2. ThreadLocal 的原理2.1 线程隔离2