Python爬虫从入门到精通:(6)数据解析2_使用bs4(BeautifulSoup)_Python涛哥

本文主要是介绍Python爬虫从入门到精通:(6)数据解析2_使用bs4(BeautifulSoup)_Python涛哥,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

使用bs4BeautifulSoup

  • 数据解析的作用?

    • 用来实现聚焦爬虫
  • 网页中显示的数据都是存储在那里的?

    • 都是存储在html的标签中或者是标签的属性中
  • 数据解析的通用原理是什么?

    • 指定标签的定位
    • 取出标签中存储的数据或者标签属性中的数据
  • bs4解析原理

    • 实例化一个BeautifulSoup对象,且待解析的页面源码数据加载到该对象中
    • 调用BeautifulSoup对象中相关方法或者属性进行标签定位和文本数据的提取
  • 环境的安装

    pip install lxml #解析器
    pip install bs4
    
  • BeautifulSoup对象的实例化:

    • BeautifulSoup(file,'lxml') 用来将本地存储的html文档中的数据进行解析
    • BeautifulSoup(page_text,'lxml') 用来将互联网上请求的页面源码数据进行解析

我们来看这段test.html源码:

<html lang="en">
<head><meta charset="UTF-8"><title>测试bs4</title>
</head>
<body>
<div><p>百里守约</p>
</div>
<div class="song"><p>李清照</p><p>王安石</p><p>苏轼</p><p>柳宗元</p><a href="http://www.song.com/" title="赵匡胤" target="_self"><span>this is span</span>宋朝是最强大的王朝,不是军队的强大,而是经济很强大,国民都很有钱</a><a href="" class="du">总为浮云能蔽日,长安不见使人愁</a><img src="http://www.baidu.com/meinv.jpg" alt=""/>
</div>
<div class="tang"><ul><li><a href="http://www.baidu.com" title="qing">清明时节雨纷纷,路上行人欲断魂,借问酒家何处有,牧童遥指杏花村</a></li><li><a href="http://www.163.com" title="qin">秦时明月汉时关,万里长征人未还,但使龙城飞将在,不教胡马度阴山</a></li><li><a href="" alt="qi">岐王宅里寻常见,崔九堂前几度闻,正是江南好风景,落花时节又逢君</a></li><li><a href="" class="du">杜甫</a></li><li><a href="" class="du">杜牧</a></li><li><b>杜小月</b></li><li><i>度蜜月</i></li><li><a href="http://www.haha.com" id="feng">凤凰台上凤凰游,凤去台空江自流,吴宫花草埋幽径,晋代衣冠成古丘</a></li></ul></div>

bs4的使用

from bs4 import BeautifulSoup
file = open('./test.html', 'r', encoding='utf-8')
soup = BeautifulSoup(file, 'lxml')
soup  # 打印出完整页面源码
  • 标签定位:

    • soup.tagName:只可以定位到第一次出现的tagName标签

      soup.p  # <p>百里守约</p>
      
  • 属性定位

    • soup.find('tagName',attrName=value):定位到第一次出现的tagName标签

      举例:

      soup.find('div', class_='song')  # 注意class 后面有 _
      

      打印结果:

      <div class="song">
      <p>李清照</p>
      <p>王安石</p>
      <p>苏轼</p>
      <p>柳宗元</p>
      <a href="http://www.song.com/" target="_self" title="赵匡胤">
      <span>this is span</span>宋朝是最强大的王朝,不是军队的强大,而是经济很强大,国民都很有钱</a>
      <a class="du" href="">总为浮云能蔽日,长安不见使人愁</a>
      <img alt="" src="http://www.baidu.com/meinv.jpg"/>
      </div>
      http://www.song.com/
      

      soup.find('a', id='feng')
      

      打印结果:

      <a href="http://www.haha.com" id="feng">凤凰台上凤凰游,凤去台空江自流,吴宫花草埋幽径,晋代衣冠成古丘</a>
      

      # soup.findAll:跟find一样作属性定位,只不过findAll返回的是列表,定位到所有满足条件的标签
      soup.findAll('a', id='feng')
      

      打印结果:

      [<a href="http://www.haha.com" id="feng">凤凰台上凤凰游,凤去台空江自流,吴宫花草埋幽径,晋代衣冠成古丘</a>]
      

  • 选择器定位:soup.select(‘选择器’)

    • 类选择器

    • id选择器

    • 层级选择器

      • >大于号 表示一个层级

        soup.select('.tang > ul > li')
        
      • 空格表示隔多个层级

        soup.select('.tang li')
        

      其结果都是:

      [
      <li><a href="http://www.baidu.com" title="qing">清明时节雨纷纷,路上行人欲断魂,借问酒家何处有,牧童遥指杏花村</a></li>
      <li><a href="http://www.163.com" title="qin">秦时明月汉时关,万里长征人未还,但使龙城飞将在,不教胡马度阴山</a></li>
      <li><a alt="qi" href="">岐王宅里寻常见,崔九堂前几度闻,正是江南好风景,落花时节又逢君</a></li>
      <li><a class="du" href="">杜甫</a></li>
      <li><a class="du" href="">杜牧</a></li>
      <li><b>杜小月</b></li>
      <li><i>度蜜月</i></li>
      <li><a href="http://www.haha.com" id="feng">凤凰台上凤凰游,凤去台空江自流,吴宫花草埋幽径,晋代衣冠成古丘</a></li>
      ]
      

  • 取数据

    • .text:返回的是该标签下所有的文本内容

    • .string:返回的是该标签直系的文本内容

    a_tag = soup.find('a', id='feng')
    # <a href="http://www.haha.com" id="feng">凤凰台上凤凰游,凤去台空江自流,吴宫花草埋幽径,晋代衣冠成古丘</a>
    a_tag.text
    a_tag.string
    

    打印结果:

    凤凰台上凤凰游,凤去台空江自流,吴宫花草埋幽径,晋代衣冠成古丘
    

    # 另一个例子
    a_tag=soup.find('div',class_='song')
    a_tag.strings
    '''<generator object Tag._all_strings at 0x00000200F390BAC0>''' # 不同的编译器显示不同a_tag.text
    '''
    李清照
    王安石
    苏轼
    柳宗元this is span宋朝是最强大的王朝,不是军队的强大,而是经济很强大,国民都很有钱
    总为浮云能蔽日,长安不见使人愁
    '''
    

  • 取属性

    • a_tag['attrName']

    • a_tag.a['attrName']

      a_tag['class']
      # 打印结果 ['song']a_tag.a['href']
      # 打印结果 http://www.song.com/
      

这篇关于Python爬虫从入门到精通:(6)数据解析2_使用bs4(BeautifulSoup)_Python涛哥的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/817408

相关文章

SpringBoot分段处理List集合多线程批量插入数据方式

《SpringBoot分段处理List集合多线程批量插入数据方式》文章介绍如何处理大数据量List批量插入数据库的优化方案:通过拆分List并分配独立线程处理,结合Spring线程池与异步方法提升效率... 目录项目场景解决方案1.实体类2.Mapper3.spring容器注入线程池bejsan对象4.创建

线上Java OOM问题定位与解决方案超详细解析

《线上JavaOOM问题定位与解决方案超详细解析》OOM是JVM抛出的错误,表示内存分配失败,:本文主要介绍线上JavaOOM问题定位与解决方案的相关资料,文中通过代码介绍的非常详细,需要的朋... 目录一、OOM问题核心认知1.1 OOM定义与技术定位1.2 OOM常见类型及技术特征二、OOM问题定位工具

PHP轻松处理千万行数据的方法详解

《PHP轻松处理千万行数据的方法详解》说到处理大数据集,PHP通常不是第一个想到的语言,但如果你曾经需要处理数百万行数据而不让服务器崩溃或内存耗尽,你就会知道PHP用对了工具有多强大,下面小编就... 目录问题的本质php 中的数据流处理:为什么必不可少生成器:内存高效的迭代方式流量控制:避免系统过载一次性

Python的Darts库实现时间序列预测

《Python的Darts库实现时间序列预测》Darts一个集统计、机器学习与深度学习模型于一体的Python时间序列预测库,本文主要介绍了Python的Darts库实现时间序列预测,感兴趣的可以了解... 目录目录一、什么是 Darts?二、安装与基本配置安装 Darts导入基础模块三、时间序列数据结构与

Python正则表达式匹配和替换的操作指南

《Python正则表达式匹配和替换的操作指南》正则表达式是处理文本的强大工具,Python通过re模块提供了完整的正则表达式功能,本文将通过代码示例详细介绍Python中的正则匹配和替换操作,需要的朋... 目录基础语法导入re模块基本元字符常用匹配方法1. re.match() - 从字符串开头匹配2.

Python使用FastAPI实现大文件分片上传与断点续传功能

《Python使用FastAPI实现大文件分片上传与断点续传功能》大文件直传常遇到超时、网络抖动失败、失败后只能重传的问题,分片上传+断点续传可以把大文件拆成若干小块逐个上传,并在中断后从已完成分片继... 目录一、接口设计二、服务端实现(FastAPI)2.1 运行环境2.2 目录结构建议2.3 serv

C#实现千万数据秒级导入的代码

《C#实现千万数据秒级导入的代码》在实际开发中excel导入很常见,现代社会中很容易遇到大数据处理业务,所以本文我就给大家分享一下千万数据秒级导入怎么实现,文中有详细的代码示例供大家参考,需要的朋友可... 目录前言一、数据存储二、处理逻辑优化前代码处理逻辑优化后的代码总结前言在实际开发中excel导入很

通过Docker容器部署Python环境的全流程

《通过Docker容器部署Python环境的全流程》在现代化开发流程中,Docker因其轻量化、环境隔离和跨平台一致性的特性,已成为部署Python应用的标准工具,本文将详细演示如何通过Docker容... 目录引言一、docker与python的协同优势二、核心步骤详解三、进阶配置技巧四、生产环境最佳实践

Python一次性将指定版本所有包上传PyPI镜像解决方案

《Python一次性将指定版本所有包上传PyPI镜像解决方案》本文主要介绍了一个安全、完整、可离线部署的解决方案,用于一次性准备指定Python版本的所有包,然后导出到内网环境,感兴趣的小伙伴可以跟随... 目录为什么需要这个方案完整解决方案1. 项目目录结构2. 创建智能下载脚本3. 创建包清单生成脚本4

Spring Security简介、使用与最佳实践

《SpringSecurity简介、使用与最佳实践》SpringSecurity是一个能够为基于Spring的企业应用系统提供声明式的安全访问控制解决方案的安全框架,本文给大家介绍SpringSec... 目录一、如何理解 Spring Security?—— 核心思想二、如何在 Java 项目中使用?——