从今天开始我会把我学习python爬虫的一些心得体会和代码发布在我现在的博客,好记性不如烂笔头,以便以后的我进行复习。
虽然我现在的爬虫还很幼小,希望有一天她能长得非常非常的强大。
--------------------2018.11.22---------------------------------------------------------------------------------------------------------------------------------
OK,废话少说。今天爬取的是电影天堂网站左边框的一个container。
环境我准备好了,所以我就开始了。
首先,为了我测试时的速度和不影响人家网站的服务器,我决定把电影天堂页面的html下载到本地
代码如下:
1 #下载网页 2 def downloadhtml(): 3 url = 'https://www.dytt8.net' 4 headers = {'User-Agent':'Mozilla/5.0'} 5 r = requests.get(url,headers=headers) 6 with open('C:/Code/newhtml1.html','wb') as f: 7 f.write(r.content) 8 downloadhtml()
这里值得一提的是,抓取下来的HTML格式是二进制的,所以保存文件时要用wb。
保存好HTML文件,我就可以尽情地调戏,不对,调试这个网站了的数据。
第一步:分析数据
打开网页的源代码,我们发现我们需要的数据被装在一个ul标签里。
Ctrl+F在源代码里查看<ul>标签,发现我们需要的ul标签是第三个标签。
这样我们就知道该爬哪里了。
第二步:解析数据
刚才下载的网页现在可以用上了,定义一个函数让BeautifulSoup能用上这个HTML网页
如:soup = BeautifulSoup(html,'html.parser')里面的html参数就可以用htmlhandle这个变量填上。
1 def send_html(): 2 path = 'C:/Code/newhtml1.html' 3 htmlfile=open(path,'r') 4 htmlhandle = htmlfile.read() 5 return htmlhandle
开始分析数据,
先贴代码吧:
1 def get_pages(html): 2 soup = BeautifulSoup(html,'html.parser') 3 for ul in soup.find_all('ul')[2]: 4 if isinstance(ul,bs4.Tag): 5 Tag_name=ul.get_text() 6 Tag_href=ul.get('href') 7 if Tag_name!= '': 8 print('名称:{},地址:{}'.format(Tag_name,Tag_href))
解释下代码
先用BeautifulSoup的find_all()函数找到所有ul标签,因为后面加了[2],所以找到是第三个ul标签。
在这里我们离我们的目标很近了。
但这里我们能发现find_all()遍历返回的值的类型是不同的,我们利用type(ul)就能发现,它其中参杂两种类型:
<class 'bs4.element.NavigableString'>
<class 'bs4.element.Tag'>
<class 'bs4.element.Tag'>
字符串和Tag,测试一下就能知道字符串类型是空的,我们需要的Tag类型。
所以用isinstance来判断是否是Tag类型,如果不是,就不要了。输出如下:
我们发现,中间还参杂了一些无效的条目,仔细看上面就能发现它返回是有两个Tag类型的,其中一个是什么都没有装的,是导致这个无效条目的原因。
所以把这条无效的条目给过滤掉吧
if Tag_name!= '':print('名称:{},地址:{}'.format(Tag_name,Tag_href))
到这里,我们就完成了本次抓取。
下面附上总代码:
1 import requests 2 import re 3 from bs4 import BeautifulSoup 4 import bs4 5 6 def send_html(): 7 path = 'C:/Code/newhtml1.html' 8 htmlfile=open(path,'r') 9 htmlhandle = htmlfile.read() 10 return htmlhandle 11 12 def get_pages(html): 13 soup = BeautifulSoup(html,'html.parser') 14 for ul in soup.find_all('ul')[2]: 15 #print(type(ul)) 16 if isinstance(ul,bs4.Tag): 17 Tag_name=ul.get_text() 18 Tag_href=ul.get('href') 19 if Tag_name!= '': 20 print('名称:{},地址:{}'.format(Tag_name,Tag_href)) 21 22 get_pages(send_html())