本文主要是介绍爬虫解析库(10.pyquery),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
PyQuery解析库
- pyquery内容简单介绍
- 10.1 firstpyquery
- 10.2 selector
- 10.3 find方法
- 10.4 parent和parents方法
- 10.5 sibling方法
- 10.6 getinfo获取节点信息
- 10.7 process_class修改节点样式
- 使用规则:
- 使用要点:
- 10.8 process_property_content
- 使用规则:
- 10.9 removenode移除节点
- 10.10 pseudo_class根据样式获取指定位置的节点
- 10.11 实战案例:抓取当当图书排行榜
- 解析库小结:
pyquery内容简单介绍
虽然Beautiful Soup库功能强大,但是CSS选择器的功能有些弱,这里介绍一种CSS选择器较强的pyquery库。
在编写爬虫的过程中可以根据需求选择pyquery库,实际上博主使用Beautiful Soup库更多一些,这次整理权当做复习罢。
pyquery库的功能较强
本章内容:
1、什么是pyquery
2、安装
3、基本用法
4、查找子节点、父节点、兄弟节点以及获取节点信息
5、修改和删除结点
6、伪类选择器、
7、实战:request和pyquery结合抓取分析HTML代码
10.1 firstpyquery
案例:4种方式将HTMl文档传入PyQuery对象
import pyquery
from pyquery import PyQuery as pq
html = '''
<div><ul><li class="item1" value1="1234" value2 = "hello world"><a href="https://geekori.com"> geekori.com</a></li><li class="item"><a href="https://www.jd.com"> 京东商城</a></li> </ul><ul><li class="item3"><a href="https://www.taobao.com">淘宝</a></li><li class="item" ><a href="https://www.microsoft.com">微软</a></li><li class="item2"><a href="https://www.google.com">谷歌</a></li></ul>
</div>'''
# 使用字符串形式将HTML文档传入PyQuery对象
doc = pq(html)
# 输出<a>节点的将href属性值和文本内容
for a in doc('a'):print(a.get('href'),a.text)# 使用URL形式将HTML文档传入PyQuery对象
doc = pq(url='https://www.jd.com')
# 输出页面的<title>节点的内容
print(doc('title'))import requests
# 抓取HTML代码,并将HTML代码传入PyQuery对象
doc = pq(requests.get('https://www.jd.com').text)
print(doc('title'))# 从HTML文件将HTMl代码传入PyQuery对象
doc = pq(filename='demo.html')
# 输出<head>节点的内容
print(doc('head'))
10.2 selector
- 通过doc的CSS选择器获取节点内容和属性
from pyquery import PyQuery as pq
html = '''
<div id="panel"><ul class="list1"><li class="item1" value1="1234" value2 = "hello world"><a href="https://geekori.com"> geekori.com</a></li><li class="item"><a href="https://www.jd.com"> 京东商城</a></li> </ul><ul class="list2"><li class="item3"><a href="https://www.taobao.com">淘宝</a></li><li class="item" ><a href="https://www.microsoft.com">微软</a></li><li class="item2"><a href="https://www.google.com">谷歌</a></li></ul>
</div>'''
# 创建PyQuery对象
doc = pq(html)
# 提取id属性值为panel,并且在该节点中所有class属性值为list1的所有节点
result = doc('#panel .list1')
# 输出result的类型,仍然为PyQuery对象
print(type(result))
print(result)
# 在以result为根的基础上,提取其中class属性值为item的所有节点
print(result('.item'))
# 提取其中的第2个a节点的href属性值和文本内容
print(result('a')[1].get('href'),result('a')[1].text)
print()
- 抓取京东商城导航条连接文本
# 抓取京东商城导航条连接文本
import requests
# 请求京东商城首页,并将返回的HTML代码传入pq对象
doc = pq(requests.get('https://www.jd.com').text)
# 提取第1个ul节点
group1 = doc('#navitems-group1')# 输出前4个链接的文本
print(group1('a')[0].text,group1('a')[1].text,group1('a')[2].text,group1('a')[3].text)
# 输出中间4个链接的文本
group2 = doc('#navitems-group2')
print(group2('a')[0].text,group2('a')[1].text,group2('a')[2].text,group2('a')[3].text)
# 输出后2个链接的文本
group3 = doc('#navitems-group3')
print(group3('a')[0].text,group3('a')[1].text)
10.3 find方法
- 查找子节点需要使用find方法,使用该方法需要将CSS选择器作为参数传入
- find方法不仅仅是直接子节点还有子孙节点
- 如果只想获取子节点,需要使用children方法
test.html文档内容:
<div id="panel"><ul class="list1"><li class="item" value1="1234" value2 = "hello world"><a href="https://geekori.com"> geekori.com<a>ok</a></a></a></li><li class="item1" ></li></ul><ul class="list2"><li class="item3"><a href="https://www.taobao.com">淘宝</a></li><li class="item" value1="4321" value2 = "世界你好" ><a href="https://www.microsoft.com">Microsoft</a></li><li class="item2"><a href="https://www.google.com">谷歌</a></li></ul>
</div>
from pyquery import PyQuery as pq
from lxml import etree
# 分析test.html文件
doc = pq(filename='test.html')
# 查找所有class属性值为list1的节点,只有第1个ul节点满足条件
result = doc('.list1')
# 查找所有的a节点,包括子孙节点
aList = result.find('a')
print(type(aList))
for a in aList:# 输出每一个查找到的a节点print(str(etree.tostring(a,pretty_print=True,encoding='utf-8'),'utf-8'))print("_________________________________")
# 查找所有class属性值为item的所有节点,只有第2个li节点和倒数第2个li节点满足条件
result = doc('.item')
aList = result.children('a')
for a in aList:# 输出每一个查找到的a节点print(str(etree.tostring(a,pretty_print=True,encoding='utf-8'),'utf-8'))
10.4 parent和parents方法
- 使用parent方法可以查找直接父节点
- 通过parents方法可以查找所有的父节点。
from pyquery import PyQuery as pq
# 分析test.html
doc = pq(filename='test.html')
# 获取class属性值为item的所有节点
result = doc('.item')
# 查找这些节点的直接父节点
print(result.parent())
print("_______________")
print('父节点个数:',len(result.parents()))
# 查找这些节点的所有父节点
print(result.parents())
# 查找id属性值为panel的父节点
print('父节点数:',len(result.parents('#panel')),'节点名:',result.parents('#panel')[0].tag)
10.5 sibling方法
使用sibling方法查找class属性值为item的结点的所有兄弟节点,以及class属性值为item2的兄弟节点
Tip: 如果读取的html内容有乱码,可以用前面几种解码方式进行解码
from pyquery import PyQuery as pq
doc = pq(filename='test.html')
result = doc('.item')
# 查找class属性值为item的结点和所有兄弟节点
print(result.siblings())
print('____________________________')
# 查找class属性值为item2的兄弟节点
print(result.siblings('.item2'))
10.6 getinfo获取节点信息
使用规则:
1、节点名称,使用tag属性
2、节点属性,使用lxml.etree._Element类的get方法
3、节点文本,使用PyQuery的text方法
4、整个节点的HTMl代码,使用etree的tostring函数
5、节点内部的HTML代码,使用PyQuery的html方法
from pyquery import PyQuery as pq
html = '''
<div id="panel"><ul class="list1"><li class="item" value1="1234" value2 = "hello world">Hello123<a href="https://geekori.com"> geekori.com</a>World</li><li class="item1" ></li></ul><ul class="list2"><li class="item3"><a href="https://www.taobao.com">淘宝</a></li><li class="item" value1="4321" value2 = "世界你好" ><a href="https://www.microsoft.com">微软</a></li><li class="item2"><a href="https://www.google.com">谷歌</a></li></ul>
</div>
'''doc = pq(html)
result = doc('.item')
print(type(result))
print("___________获取名称___________")
print(type(result[0]))
# 获取第1个li节点的名称
print(result[0].tag)
# 获取第2个li节点的名称
print(result[1].tag)
print('___________获取属性___________')
# 获取第1个li节点的value1属性的值
print('value1:',result[0].get('value1'))
# 获取第1个li节点的value2属性的值
print('value2:',result.attr('value2'))
# 获取第1个li节点的value2属性的值
print('value2:',result.attr.value2)
print("______________________________")
for li in result.items():print(type(li))# 获取查询结果中每一个结点的value2属性值print(li.attr.value2)for li in result:print(type(li))# 获取查询结果中每一个结点的value2属性值print(li.get('value2'))print("_______________获取文本_______________")
# 获取查询结果中第1个li节点的文本内容
print(result.text())
print('result.text()类型:',type(result.text()))
for node in result:# 获取查询结果中每一个节点的文本内内容print(node.text)print("_______________节点HTML代码_______________")
from lxml import etree
for node in result:# 获取查询结果中每一个节点的完整HTML代码print(str(etree.tostring(node,pretty_print=True),'utf-8'))print('_______________获取节点内部HTML代码_______________')
# 获取查询结果中第1个li节点内的完整HTML代码
print(result.html())
10.7 process_class修改节点样式
使用规则:
- addClass方法可以向节点的class属性添加样式
- removeClass方法可以向节点的class属性移除样式
使用要点:
1、用pyquery查询节点时,如果需要制定多个样式,每个样式前面需要加(.),而且多个样式要首尾相连,中间不能有空格2、添加和删除样式时,样式名不能带(.),否则会将(.)作为样式名的一部分添加到class属性中3、添加和删除多个样式时,多个样式之间用空格分隔4、如果要操作的是多个节点,那么addClass方法和removeClass方法同样有效
from pyquery import PyQuery as pq
html = '''
<div id="panel"><ul class="list1" ><li class="item1 item2 item3" >谷歌</li><li class="item1 item2">微软</li></ul></div>
'''
doc = pq(html)
# 查询class属性值为item1,item2的节点
li = doc('.item1.item2')
print(li)
# 为所有查询结果节点添加一个名为myitem的样式
li.addClass('myitem')
print(li)
# 移除查询结果中所有节点名为item1的样式
li.removeClass('item1')
print(li)
# 移除查询结果中所有节点的两个样式:item2和item3
li.removeClass('item2 item3')
print(li)
# 为查询记过的所有节点添加两个样式:class1和class2
li.addClass('class1 class2')
print(li)
10.8 process_property_content
使用规则:
1. 使用attr方法可以为节点添加新的属性,如果存在,则修改
2. 使用removeAttr方法可以移除节点属性
3. 使用text和html方法修改节点中的文本内容如果text没有参数,则返回所有节点的文本,用空格隔开如果html没有参数,只返回第1个节点的文本内容
10.9 removenode移除节点
使用remove方法可以删除结点,接收一个字符串类型的参数,用于指定要删除的节点名
如果不指定参数,则删除当前节点
from pyquery import PyQuery as pqhtml = '''
<div id="panel"><ul class="list1" ><li class="item1 item2" >谷歌<p>微软</p>Facebook</li></ul></div>
'''
doc = pq(html)
li = doc('.item1.item2')
# 获取li节点中的所有节点
print(li.text())
print('______________<p>微软</p>已经被删除______________')
# 删除p节点
li.remove('p')
# 重新获取li节点中所有的文本
print(li.text())li = doc('.item1.item2')
# 先找到p节点,然后删除
print(li.find('p').remove())
print(li.text())
10.10 pseudo_class根据样式获取指定位置的节点
import pyquery
from pyquery import PyQuery as pq
html = '''
<div><ul><li class="item1" ><a href="https://geekori.com"> geekori.com</a></li><li class="item"><a href="https://www.jd.com"> 京东商城(https://www.jd.com)</a></li><li class="item3"><a href="https://www.taobao.com">淘宝</a></li><li class="item" ><a href="https://www.microsoft.com">微软</a></li><li class="item2"><a href="https://www.google.com">谷歌</a></li> </ul></div>
'''
doc = pq(html)
# 选取第1个节点
li = doc('li:first-child')
print(li)
# 选取最后一个li节点
li = doc('li:last-child')
print(li)
# 选取第3个li节点
li = doc('li:nth-child(3)')
print(li)
# 选取索引大于2的li节点(索引从0开始)
li = doc('li:lt(2)')
print(li)
# 选取所有大于3的li节点(所有从0开始)
li = doc('li:gt(3)')
print(li)
# 选择序号为奇数的li节点,第一个li节点的序号为1
li = doc('li:nth-child(2n+1)')
print(li)
# 选择序号为偶数的li节点
li = doc('li:nth-child(2n)')
print(li)
# 选取文本内容包含com的所有节点
all = doc(':contains(com)')
print(len(all))
# 输出每一个选取结果的节点名
for t in all:print(t.tag, end=' ')
10.11 实战案例:抓取当当图书排行榜
注:也可以自己尝试分析其他网页内容,不过有的内容需要用到Cookie,Cookie是十分重要的东西,务必按照前面的方法,将Cookie放入header请求头中,即可获取页面内容。
本案例没有使用Cookie。
ps = '''分析url:http://search.dangdang.com/?key=python&act=input&page_index=2....page_index=3 '''
from pyquery import PyQuery as pq
import requests
import time
# 用于下载指定URL页面
def get_one_page(url):try:res = requests.get(url)if res.status_code == 200:return res.textreturn Noneexcept Exception:return None
# 分析搜索也是一个产生器函数
def parse_one_page(html):doc = pq(html)# 提取包含所有li节点的ul节点ul = doc('.bigimg')liList = ul('li')# 对li节点集合进行迭代,这里要注意,必须使用items方法返回可迭代对象,这样每一个item才会是PyQuery对象for li in liList.items():# 获取点前li节点中第1个a节点a = li('a:first-child')# 获取图书主页的URlhref = a[0].get('href')# 获取图书名称title = a[0].get('title')# 抓取class属性值为search_now_price的节点span = li('.search_now_price')# 获取价格price = span[0].text[1:]# 抓取class属性值为search_book_author的节点p = li('.search_book_author')# 获取图书作者author = p('a:first-child').attr('title')# 获取图书出版日期date = p('span:nth-child(2)').text()[1:]# 获取图书出版社publisher = p('span:nth-child(3) > a').text()# 获取图书评论数comment_number = li('.search_comment_num').text()[:3]# 获取图书简介detail = li('.detail').text()yield{'href':href,'title':title,'price':price,'author':author,'date':date,'publisher':publisher,'comment_number':comment_number,'detail':detail}if __name__ == '__main__':# 产生前三页的URLurls = ['http://search.dangdang.com/?key=python&act=input&page_index={}'.format(str(i)) for i in range(1,4)]for url in urls:# 获取每一个搜索页面对应的迭代图书信息book_infos = parse_one_page(get_one_page(url))for book_info in book_infos:# 输出每一本书的图书信息print(book_info)time.sleep(1)
解析库小结:
- 7-10一共介绍了4中常用解析库的内容,包括正则表达式,lxml和XPath,Beautiful Soup 和 pyquery库,这些解析库各有各自的优势,根据自己的需要选取合适的解析方法。
- 解析库的内容到此为止,后面将讲解如何将抓取的数据存储起来,包括数据库、excel文档等等,持续更新,拭目以待…
这篇关于爬虫解析库(10.pyquery)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!