Python爬虫实战:爬取太平洋网络相机文章

2024-03-25 11:44

本文主要是介绍Python爬虫实战:爬取太平洋网络相机文章,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

引言

本文介绍了使用Python编写的爬虫程序,通过爬取太平洋网络上的相机文章,获取相关信息并展示结果。文章详细介绍了爬虫程序的实现过程,包括使用Selenium模拟浏览器操作、使用BeautifulSoup解析网页内容等。通过阅读本文,可以了解到如何利用爬虫技术获取网络上的有用信息

在互联网时代,获取网络上的信息变得越来越重要。而爬虫技术作为一种有效的信息获取方式,被广泛应用于各个领域。本文将介绍一种使用Python编写的爬虫程序,通过爬取太平洋网络上的相机文章,获取相关信息并展示结果。

准备工作

本程序使用Python编程语言,并依赖于一些第三方库,包括:

  • bag
  • selenium
  • tqdm
  • requests
  • beautifulsoup4

完整代码

#!/usr/bin/env python3
# coding:utf-8
import bag
from selenium.webdriver.common.by import By
from tqdm import tqdm
import requests
from bs4 import BeautifulSoup
import re
import urllib3urllib3.disable_warnings()
all_data_url = []
end = []def main():base_url = r'https://dc.pconline.com.cn/hangqing/'web = bag.Bag.web_no_pic()urls = get_page_url(base_url)print(urls)for url in tqdm(urls):get_data_url(web, url)for link in tqdm(all_data_url[:2]):data = get_data(link)print(data)def get_page_url(url):urls = []for i in range(2):  # 获取页数if i < 1:urls.append(url)else:urls.append(url + 'index_{}.html'.format(i + 1))return urlsdef get_data_url(web, url):web.get(url)web.implicitly_wait(1)links = web.find_elements(By.XPATH, r'//*[@id="Jlis"]/li/a')for link in links:all_data_url.append(link.get_attribute('href'))def get_data(url):result = []headers = {'user-agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/37.0.2062.124 Safari/537.36'}resp = requests.get(url, headers=headers)resp.encoding = 'gb2312'resp.close()html = BeautifulSoup(resp.text, 'lxml')info = []title = re.compile(r'<h1>(.*?)</h1>', re.S)soup = html.find_all('div', class_="art-hd")for i in re.findall(title, str(soup)):info.append(i)info1 = []content = re.compile(r'<p>(.*?)</p>', re.S)soup1 = html.find_all('div', class_="content")for i in re.findall(content, str(soup1)):info1.append(re.sub(r'<.*?>', '', i))info2 = []brand = re.compile(r'<span class="mark">.*?<a.*?>(.*?)</a>.*?</span>', re.S)soup2 = html.find_all('div', class_="nav nav-a")for i in re.findall(brand, str(soup2)):info2.append(i)result.extend([info2,info,info1,url])return resultif __name__ == '__main__':main()

解析:

首先,我们定义了一个main函数,作为程序的入口。在main函数中,我们首先定义了要爬取的网页的基础URL,然后创建一个浏览器对象web,并调用get_page_url函数获取要爬取的页面URL列表。接着,我们遍历页面URL列表,调用get_data_url函数获取每个页面中的文章链接,并将其存储在all_data_url列表中。最后,我们遍历all_data_url列表,调用get_data函数获取每篇文章的相关信息

接下来,我们来看一下具体的实现细节。在get_page_url函数中,我们通过循环获取太平洋网络相机文章的多个页面的URL,并将其存储在urls列表中。在get_data_url函数中,我们使用Selenium模拟浏览器操作,获取每个页面中的文章链接,并将其存储在all_data_url列表中。在get_data函数中,我们使用requests库发送HTTP请求,获取每篇文章的网页内容,并使用BeautifulSoup解析HTML,提取出文章的标题、内容和品牌信息,并将结果存储在result列表中。

最后,我们调用main函数,执行爬虫程序。程序将按照以下步骤进行操作:首先,获取太平洋网络相机文章的页面URL列表;然后,遍历页面URL列表,获取每个页面中的文章链接;接着,遍历文章链接列表,获取每篇文章的相关信息;最后,打印结果

结语

如果你觉得本教程对你有所帮助,不妨点赞并关注我的CSDN账号。我会持续为大家带来更多有趣且实用的教程和资源。谢谢大家的支持!

这篇关于Python爬虫实战:爬取太平洋网络相机文章的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/844910

相关文章

网页解析 lxml 库--实战

lxml库使用流程 lxml 是 Python 的第三方解析库,完全使用 Python 语言编写,它对 XPath表达式提供了良好的支 持,因此能够了高效地解析 HTML/XML 文档。本节讲解如何通过 lxml 库解析 HTML 文档。 pip install lxml lxm| 库提供了一个 etree 模块,该模块专门用来解析 HTML/XML 文档,下面来介绍一下 lxml 库

python: 多模块(.py)中全局变量的导入

文章目录 global关键字可变类型和不可变类型数据的内存地址单模块(单个py文件)的全局变量示例总结 多模块(多个py文件)的全局变量from x import x导入全局变量示例 import x导入全局变量示例 总结 global关键字 global 的作用范围是模块(.py)级别: 当你在一个模块(文件)中使用 global 声明变量时,这个变量只在该模块的全局命名空

性能分析之MySQL索引实战案例

文章目录 一、前言二、准备三、MySQL索引优化四、MySQL 索引知识回顾五、总结 一、前言 在上一讲性能工具之 JProfiler 简单登录案例分析实战中已经发现SQL没有建立索引问题,本文将一起从代码层去分析为什么没有建立索引? 开源ERP项目地址:https://gitee.com/jishenghua/JSH_ERP 二、准备 打开IDEA找到登录请求资源路径位置

Linux 网络编程 --- 应用层

一、自定义协议和序列化反序列化 代码: 序列化反序列化实现网络版本计算器 二、HTTP协议 1、谈两个简单的预备知识 https://www.baidu.com/ --- 域名 --- 域名解析 --- IP地址 http的端口号为80端口,https的端口号为443 url为统一资源定位符。CSDNhttps://mp.csdn.net/mp_blog/creation/editor

【Python编程】Linux创建虚拟环境并配置与notebook相连接

1.创建 使用 venv 创建虚拟环境。例如,在当前目录下创建一个名为 myenv 的虚拟环境: python3 -m venv myenv 2.激活 激活虚拟环境使其成为当前终端会话的活动环境。运行: source myenv/bin/activate 3.与notebook连接 在虚拟环境中,使用 pip 安装 Jupyter 和 ipykernel: pip instal

C#实战|大乐透选号器[6]:实现实时显示已选择的红蓝球数量

哈喽,你好啊,我是雷工。 关于大乐透选号器在前面已经记录了5篇笔记,这是第6篇; 接下来实现实时显示当前选中红球数量,蓝球数量; 以下为练习笔记。 01 效果演示 当选择和取消选择红球或蓝球时,在对应的位置显示实时已选择的红球、蓝球的数量; 02 标签名称 分别设置Label标签名称为:lblRedCount、lblBlueCount

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

ASIO网络调试助手之一:简介

多年前,写过几篇《Boost.Asio C++网络编程》的学习文章,一直没机会实践。最近项目中用到了Asio,于是抽空写了个网络调试助手。 开发环境: Win10 Qt5.12.6 + Asio(standalone) + spdlog 支持协议: UDP + TCP Client + TCP Server 独立的Asio(http://www.think-async.com)只包含了头文件,不依

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

滚雪球学Java(87):Java事务处理:JDBC的ACID属性与实战技巧!真有两下子!

咦咦咦,各位小可爱,我是你们的好伙伴——bug菌,今天又来给大家普及Java SE啦,别躲起来啊,听我讲干货还不快点赞,赞多了我就有动力讲得更嗨啦!所以呀,养成先点赞后阅读的好习惯,别被干货淹没了哦~ 🏆本文收录于「滚雪球学Java」专栏,专业攻坚指数级提升,助你一臂之力,带你早日登顶🚀,欢迎大家关注&&收藏!持续更新中,up!up!up!! 环境说明:Windows 10