如何从yaml取值,如何处理编码,使用BeautifulSoup解析网页获取数据

本文主要是介绍如何从yaml取值,如何处理编码,使用BeautifulSoup解析网页获取数据,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

import requests
from bs4 import BeautifulSoup
import yaml
import chardet
#从doctor.yaml里面引入网址
with open('doctor.yaml', 'r', encoding='utf-8') as file:urls_data = yaml.safe_load(file)
#把查出的数据写入doctor_info.txt中
with open('doctor_info.txt', 'w', encoding='utf-8') as output_file:#从yaml中取出'https://1.hml,"标题1"'for url_data in urls_data.get('urls', []):#把数据中第一个值https://1.hml,付给了URLurl = url_data.split(',')[0].strip()#把数据中第二个值标题1,付给了department   department = url_data.split(',')[1].strip()#把department的值写入结果文件中output_file.write(f"\n{department}\n")# 获取 URLresponse = requests.get(url)# 在这段代码中,首先使用 `chardet.detect(response.content)` 来检测网页内容的编码格式,并将其储存在 `detected_encoding` 中。然后,通过循环遍历 `possible_encodings` 中的不同编码格式,尝试用每一种编码格式来解码网页内容。如果成功解码(没有引发 `UnicodeDecodeError`),则将解码后的内容存储在 `html_content` 中,并通过 `break` 跳出循环。否则,继续尝试下一种编码格式。如果所有尝试都失败,即 `html_content` 仍为 `None`,则输出"无法解码网页内容"并继续下一个 URL 的处理。#detected_encoding = chardet.detect(response.content)['encoding']possible_encodings = ['utf-8', 'gbk', 'gb2312', 'big5']html_content = Nonefor encoding in possible_encodings:try:html_content = response.content.decode(encoding)breakexcept UnicodeDecodeError:passif html_content is None:print("无法解码网页内容")continue
#`BeautifulSoup`库中的 `html.parser` 解析器是Python的内置解析器,用于解析HTML文档soup = BeautifulSoup(html_content, 'html.parser')# 查找 <div class="z-new-doctor mt15"> 元素z_new_doctor = soup.find('div', class_='z-new-doctor mt15')if z_new_doctor:# 查找 所有<div class="schedule-list clearfix pt15 pb20 pl10 pr10 bdr-botd graydeep"> 元素schedule_lists = z_new_doctor.find_all('div', class_='schedule-list clearfix pt15 pb20 pl10 pr10 bdr-botd graydeep')#每个<div class="schedule-list clearfix pt15 pb20 pl10 pr10 bdr-botd graydeep"> 元素做同样的处理for schedule_list in schedule_lists:# 1.查找所有 <div class="fl ml10 lh24"> 元素fl_elements = schedule_list.find_all('div', class_='fl ml10 lh24')#取<div class="fl ml10 lh24"> 元素下前两个值for fl_element in fl_elements:doctor_info = fl_element.get_text().split()[:2]  # 获取两个文字值,第一个为医生姓名,第二个为医生职称if len(doctor_info) == 2:doctor_name, doctor_title = doctor_info#写入结果文件output_file.write(f"医生姓名: {doctor_name}\n")output_file.write(f"医生职称: {doctor_title}\n")# 2.查找所有 <div class="sd-doc-done sd-doc-done-w fl pl15 lh24 tc"> 元素sd_done_elements = schedule_list.find_all('div', class_='sd-doc-done sd-doc-done-w fl pl15 lh24 tc')for sd_done_element in sd_done_elements:#取到的医生擅长写入结果文件output_file.write(f"擅长: {sd_done_element.get_text()}\n") # 3.查找img下的src,把值写入结果,如果值是'//z.xywy.com/doc/images_new/doctor_c.jpg'替换成空img_tag = schedule_list.find('img')if img_tag and 'src' in img_tag.attrs:img_src = img_tag['src']# 将提取到的 src 中的内容进行替换new_src = img_src.replace('//z.xywy.com/doc/images_new/doctor_c.jpg', ' ')output_file.write(f"头像地址: {new_src}\n")  # 输出替换后的 src 属性值else:print(f"未找到 {z_new_doctor} 元素")

doctor.yaml

urls:- 'https://1.tml,"标题1"'- 'https://2.htm,"标题2"'

结果:
标题1
医生姓名1
职称1
擅长1
头像1

 医生姓名2职称2擅长2头像2

标题2
医生姓名3
职称3
擅长3
头像3

这篇关于如何从yaml取值,如何处理编码,使用BeautifulSoup解析网页获取数据的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/978537

相关文章

网页解析 lxml 库--实战

lxml库使用流程 lxml 是 Python 的第三方解析库,完全使用 Python 语言编写,它对 XPath表达式提供了良好的支 持,因此能够了高效地解析 HTML/XML 文档。本节讲解如何通过 lxml 库解析 HTML 文档。 pip install lxml lxm| 库提供了一个 etree 模块,该模块专门用来解析 HTML/XML 文档,下面来介绍一下 lxml 库

中文分词jieba库的使用与实景应用(一)

知识星球:https://articles.zsxq.com/id_fxvgc803qmr2.html 目录 一.定义: 精确模式(默认模式): 全模式: 搜索引擎模式: paddle 模式(基于深度学习的分词模式): 二 自定义词典 三.文本解析   调整词出现的频率 四. 关键词提取 A. 基于TF-IDF算法的关键词提取 B. 基于TextRank算法的关键词提取

无人叉车3d激光slam多房间建图定位异常处理方案-墙体画线地图切分方案

墙体画线地图切分方案 针对问题:墙体两侧特征混淆误匹配,导致建图和定位偏差,表现为过门跳变、外月台走歪等 ·解决思路:预期的根治方案IGICP需要较长时间完成上线,先使用切分地图的工程化方案,即墙体两侧切分为不同地图,在某一侧只使用该侧地图进行定位 方案思路 切分原理:切分地图基于关键帧位置,而非点云。 理论基础:光照是直线的,一帧点云必定只能照射到墙的一侧,无法同时照到两侧实践考虑:关

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

Makefile简明使用教程

文章目录 规则makefile文件的基本语法:加在命令前的特殊符号:.PHONY伪目标: Makefilev1 直观写法v2 加上中间过程v3 伪目标v4 变量 make 选项-f-n-C Make 是一种流行的构建工具,常用于将源代码转换成可执行文件或者其他形式的输出文件(如库文件、文档等)。Make 可以自动化地执行编译、链接等一系列操作。 规则 makefile文件

使用opencv优化图片(画面变清晰)

文章目录 需求影响照片清晰度的因素 实现降噪测试代码 锐化空间锐化Unsharp Masking频率域锐化对比测试 对比度增强常用算法对比测试 需求 对图像进行优化,使其看起来更清晰,同时保持尺寸不变,通常涉及到图像处理技术如锐化、降噪、对比度增强等 影响照片清晰度的因素 影响照片清晰度的因素有很多,主要可以从以下几个方面来分析 1. 拍摄设备 相机传感器:相机传

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

pdfmake生成pdf的使用

实际项目中有时会有根据填写的表单数据或者其他格式的数据,将数据自动填充到pdf文件中根据固定模板生成pdf文件的需求 文章目录 利用pdfmake生成pdf文件1.下载安装pdfmake第三方包2.封装生成pdf文件的共用配置3.生成pdf文件的文件模板内容4.调用方法生成pdf 利用pdfmake生成pdf文件 1.下载安装pdfmake第三方包 npm i pdfma

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]