[python爬虫] Selenium定向爬取虎扑篮球海量精美图片

2023-11-11 00:30

本文主要是介绍[python爬虫] Selenium定向爬取虎扑篮球海量精美图片,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

前言:

 
       作为一名从小就看篮球的球迷,会经常逛虎扑篮球及湿乎乎等论坛,在论坛里面会存在很多精美图片,包括NBA球队、CBA明星、花边新闻、球鞋美女等等,如果一张张右键另存为的话真是手都点疼了。作为程序员还是写个程序来进行吧!
        所以我通过Python+Selenium+正则表达式+urllib2进行海量图片爬取。

        前面讲过太多Python爬虫相关的文章了,如爬取新浪博客、维基百科Infobox、百度百科、游迅网图片,也包括Selenium安装过程等等,详见我的两个专栏:
        Python学习系列
         Python爬虫之Selenium+Phantomjs+CasperJS


运行效果:


        运行效果如下图所示,其中第一幅图是虎扑网站爬取tag(标签)为马刺的图集,第二幅图是爬取tag为陈露的图集。每个文件夹命名对应网页主题,而且图片都是完整的。
        http://photo.hupu.com/nba/tag/马刺
        http://photo.hupu.com/nba/tag/陈露





源代码:


# -*- coding: utf-8 -*-  
""" 
Crawling pictures by selenium and urllib
url: 虎扑 马刺 http://photo.hupu.com/nba/tag/%E9%A9%AC%E5%88%BA
url: 虎扑 陈露 http://photo.hupu.com/nba/tag/%E9%99%88%E9%9C%B2
Created on 2015-10-24
@author: Eastmount CSDN  
"""    import time            
import re            
import os    
import sys  
import urllib  
import shutil  
import datetime  
from selenium import webdriver        
from selenium.webdriver.common.keys import Keys        
import selenium.webdriver.support.ui as ui        
from selenium.webdriver.common.action_chains import ActionChains    #Open PhantomJS    
driver = webdriver.PhantomJS(executable_path="G:\phantomjs-1.9.1-windows\phantomjs.exe")
#driver = webdriver.Firefox()  
wait = ui.WebDriverWait(driver,10)    #Download one Picture By urllib 
def loadPicture(pic_url, pic_path):  pic_name = os.path.basename(pic_url)  #删除路径获取图片名字pic_name = pic_name.replace('*','')   #去除'*' 防止错误 invalid mode ('wb') or filenameurllib.urlretrieve(pic_url, pic_path + pic_name)#爬取具体的图片及下一张
def getScript(elem_url, path, nums):try:#由于链接 http://photo.hupu.com/nba/p29556-1.html#只需拼接 http://..../p29556-数字.html 省略了自动点击"下一张"操作count = 1t = elem_url.find(r'.html')while (count <= nums):html_url = elem_url[:t] + '-' + str(count) + '.html'#print html_url'''driver_pic.get(html_url)elem = driver_pic.find_element_by_xpath("//div[@class='pic_bg']/div/img")url = elem.get_attribute("src")'''#采用正则表达式获取第3个<div></div> 再获取图片URL进行下载content = urllib.urlopen(html_url).read()start = content.find(r'<div class="flTab">')end = content.find(r'<div class="comMark" style>')content = content[start:end]div_pat = r'<div.*?>(.*?)<\/div>'div_m = re.findall(div_pat, content, re.S|re.M)#print div_m[2]link_list = re.findall(r"(?<=href=\").+?(?=\")|(?<=href=\').+?(?=\')", div_m[2])#print link_listurl = link_list[0] #仅仅一条url链接loadPicture(url, path)count = count + 1except Exception,e:  print 'Error:',e  finally:  print 'Download ' + str(count) + ' pictures\n'  #爬取主页图片集的URL和主题  
def getTitle(url):  try:  #爬取URL和标题  count = 0  print 'Function getTitle(key,url)'  driver.get(url)  wait.until(lambda driver: driver.find_element_by_xpath("//div[@class='piclist3']"))print 'Title: ' + driver.title + '\n'#缩略图片url(此处无用) 图片数量 标题(文件名) 注意顺序elem_url = driver.find_elements_by_xpath("//a[@class='ku']/img")elem_num = driver.find_elements_by_xpath("//div[@class='piclist3']/table/tbody/tr/td/dl/dd[1]")elem_title = driver.find_elements_by_xpath("//div[@class='piclist3']/table/tbody/tr/td/dl/dt/a")for url in elem_url:  pic_url = url.get_attribute("src")html_url = elem_title[count].get_attribute("href")print elem_title[count].textprint html_url print pic_urlprint elem_num[count].text#创建图片文件夹path = "E:\\Picture_HP\\" + elem_title[count].text + "\\"m = re.findall(r'(\w*[0-9]+)\w*', elem_num[count].text) #爬虫图片张数nums = int(m[0])count = count + 1 if os.path.isfile(path):         #Delete file  os.remove(path)  elif os.path.isdir(path):        #Delete dir  shutil.rmtree(path, True)  os.makedirs(path)                #create the file directory  getScript(html_url, path, nums)  #visit pagesexcept Exception,e:  print 'Error:',e  finally:  print 'Find ' + str(count) + ' pages with key\n'  #Enter Function  
def main():  #Create Folder  basePathDirectory = "E:\\Picture_HP"  if not os.path.exists(basePathDirectory):  os.makedirs(basePathDirectory)  #Input the Key for search  str=>unicode=>utf-8  key = raw_input("Please input a key: ").decode(sys.stdin.encoding)  print 'The key is : ' + key  #Set URL List  Sum:1-2 Pages  print 'Ready to start the Download!!!\n\n'  starttime = datetime.datetime.now()   num=1  while num<=1:#url = 'http://photo.hupu.com/nba/tag/%E9%99%88%E9%9C%B2?p=2&o=1'url = 'http://photo.hupu.com/nba/tag/%E9%A9%AC%E5%88%BA'        print '第'+str(num)+'页','url:'+url  #Determine whether the title contains key  getTitle(url)  time.sleep(2)  num = num + 1  else:  print 'Download Over!!!'  #get the runtime  endtime = datetime.datetime.now()  print 'The Running time : ',(endtime - starttime).seconds  main()  

代码解析:


        源程序主要步骤如下:

        1.入口main函数中,在E盘下创建图片文件夹Picture_HP,然后输入图集url,本打算输入tag来进行访问的,因为URL如下:
        http://photo.hupu.com/nba/tag/马刺
        但是解析URL中文总是错误,故改成输入URL,这不影响大局。同时你可能发现了代码中while循环条件为num<=1,它只执行一次,建议需要下载哪页图集,就赋值URL即可。但是虎扑的不同页链接如下,通过分析URL拼接也是可以实现循环获取所有页的。
        http://photo.hupu.com/nba/tag/%E9%99%88%E9%9C%B2?p=2&o=1

       2.调用getTitle(rul)函数,通过Selenium和Phantomjs分析HTML的DOM结构,通过find_elements_by_xpath函数获取原图路径URL、图集的主题和图片数量。如图:



        通过该函数即可获取每个图集的主题、URL及图片个数,同时根据图集主题创建相应的文件夹,代码中涉及正则表达式获取图片数量,从"共19张"到数字"19"。如图:



         3.再调用函数getScript(elem_url, path, nums),参数分别是图片url、保存路径和图片数量。那么如何获取下一张图片的URL呢?
        当通过步骤二爬取了图集URL,如:http://photo.hupu.com/nba/p29556.html
        (1).如果是通过Ajax、JavaScript动态加载的图片,url无规律则需要调用Selenium动态模拟鼠标操作点击“下一张”来获取原图url;
        (2).但很多网站都会存在一些规律,如虎扑的第九张图片链接如下,通过URL字符串分割处理即可实现:"p29556-"+"数字"+".html"即可。
                http://photo.hupu.com/nba/p29556-9.html


         在该函数中,我第一次也是通过Selenium分析HTML结构获取原始图片url,但每张图片都需要调用一次Phantomjs无界面浏览器,这速度太慢了。故该成了正则表达式获取HTML中的原图URL,其原因如下图:
        虎扑又偷懒了,它在下面定义了原图链接,直接获取即可。



        4.最后一步即urllib.urlretrieve(pic_url, pic_path + pic_name)下载图片即可。
        当然你可能会遇到错误“Error: [Errno 22] invalid mode ('wb') or filename”,参考 stackoverflow




总结:


        这是一篇讲述Selenium和Python爬取虎扑图集的文章,文章内容算是爬虫里面比较基础的,其中下载的“陈露”图片和网站给出的34个图集、902张图片一样。同时采用正则后时间估计3分钟左右,很快~当然,虎扑里面的标签很多,足球应该也是类似,只要修改URL即可下载图集,非常之方便。
        最近在学习Spider更为广泛的Python爬取,也准备学习分布式爬虫、docker等。希望以后有机会真正讲讲如何实现深度搜索爬取和宽度搜索爬取等相关深层次内容,不要在这么水了。当然,如果你是爬虫初学者或Python初学者,这些实践的东西都将对你有所帮助~
        最后希望读到此处的朋友,能收获一些东西,如果有错误或不足之处,还请海涵~最近正在认真学习中,非常期望自己能成为一名大学老师,无知 · 乐观 · 谦逊 · 低调 · 生活。
       (By:Eastmount 2015-10-25 深夜3点   http://blog.csdn.net/eastmount/)

这篇关于[python爬虫] Selenium定向爬取虎扑篮球海量精美图片的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/386336

相关文章

Python的Darts库实现时间序列预测

《Python的Darts库实现时间序列预测》Darts一个集统计、机器学习与深度学习模型于一体的Python时间序列预测库,本文主要介绍了Python的Darts库实现时间序列预测,感兴趣的可以了解... 目录目录一、什么是 Darts?二、安装与基本配置安装 Darts导入基础模块三、时间序列数据结构与

Python正则表达式匹配和替换的操作指南

《Python正则表达式匹配和替换的操作指南》正则表达式是处理文本的强大工具,Python通过re模块提供了完整的正则表达式功能,本文将通过代码示例详细介绍Python中的正则匹配和替换操作,需要的朋... 目录基础语法导入re模块基本元字符常用匹配方法1. re.match() - 从字符串开头匹配2.

Python使用FastAPI实现大文件分片上传与断点续传功能

《Python使用FastAPI实现大文件分片上传与断点续传功能》大文件直传常遇到超时、网络抖动失败、失败后只能重传的问题,分片上传+断点续传可以把大文件拆成若干小块逐个上传,并在中断后从已完成分片继... 目录一、接口设计二、服务端实现(FastAPI)2.1 运行环境2.2 目录结构建议2.3 serv

通过Docker容器部署Python环境的全流程

《通过Docker容器部署Python环境的全流程》在现代化开发流程中,Docker因其轻量化、环境隔离和跨平台一致性的特性,已成为部署Python应用的标准工具,本文将详细演示如何通过Docker容... 目录引言一、docker与python的协同优势二、核心步骤详解三、进阶配置技巧四、生产环境最佳实践

Python一次性将指定版本所有包上传PyPI镜像解决方案

《Python一次性将指定版本所有包上传PyPI镜像解决方案》本文主要介绍了一个安全、完整、可离线部署的解决方案,用于一次性准备指定Python版本的所有包,然后导出到内网环境,感兴趣的小伙伴可以跟随... 目录为什么需要这个方案完整解决方案1. 项目目录结构2. 创建智能下载脚本3. 创建包清单生成脚本4

Python实现Excel批量样式修改器(附完整代码)

《Python实现Excel批量样式修改器(附完整代码)》这篇文章主要为大家详细介绍了如何使用Python实现一个Excel批量样式修改器,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一... 目录前言功能特性核心功能界面特性系统要求安装说明使用指南基本操作流程高级功能技术实现核心技术栈关键函

python获取指定名字的程序的文件路径的两种方法

《python获取指定名字的程序的文件路径的两种方法》本文主要介绍了python获取指定名字的程序的文件路径的两种方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要... 最近在做项目,需要用到给定一个程序名字就可以自动获取到这个程序在Windows系统下的绝对路径,以下

使用Python批量将.ncm格式的音频文件转换为.mp3格式的实战详解

《使用Python批量将.ncm格式的音频文件转换为.mp3格式的实战详解》本文详细介绍了如何使用Python通过ncmdump工具批量将.ncm音频转换为.mp3的步骤,包括安装、配置ffmpeg环... 目录1. 前言2. 安装 ncmdump3. 实现 .ncm 转 .mp34. 执行过程5. 执行结

Python实现批量CSV转Excel的高性能处理方案

《Python实现批量CSV转Excel的高性能处理方案》在日常办公中,我们经常需要将CSV格式的数据转换为Excel文件,本文将介绍一个基于Python的高性能解决方案,感兴趣的小伙伴可以跟随小编一... 目录一、场景需求二、技术方案三、核心代码四、批量处理方案五、性能优化六、使用示例完整代码七、小结一、

Python中 try / except / else / finally 异常处理方法详解

《Python中try/except/else/finally异常处理方法详解》:本文主要介绍Python中try/except/else/finally异常处理方法的相关资料,涵... 目录1. 基本结构2. 各部分的作用tryexceptelsefinally3. 执行流程总结4. 常见用法(1)多个e