你会爬虫吗,我来教你爬海关蜀黍

2024-03-19 22:08
文章标签 爬虫 海关 我来 蜀黍

本文主要是介绍你会爬虫吗,我来教你爬海关蜀黍,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

爬虫是近年来一直比较流行的,今天无聊就来和你聊聊爬虫.在例子中讲解,让你学会使用爬虫.并将自己爬取的数据保存在excel中,首先来看看网站页面

就是下面这样,不得不说这个页面做的还是比较好看的

    现在进入正题,首先的导入利用到的库咯  re,正则表达式;bs4,request和对excel文件夹进行操作的xlwt库.

import re
from bs4 import BeautifulSoup
import datetime
import requests
import xlwt
    如果你没有这些库,就只有自己安装一下了,安装也比较简单,安装代码如下:

pip install bs4
pip install request
pip install xlwt

    在准备工作做完之后该进入正题了,我主要是要爬去网站上以问答形式的段落,主要就是交流互动



    首先F12查看网站的源html代码,然后找到主题下问题的msgDataId,然后再前往另一个页面爬取答案.同样的找到答案的html位置.不好说,我直接上代码好了

html_frist = "http://www.customs.gov.cn/eportal/ui?currentPage=1&moduleId=76777400f8cf4a66807d98d442234e97&pageId=374089"html = requests.get(html_frist)
print html_frist
html.encoding="utf-8"
title = re.findall("target=\"_blank\" href=\"(.*)\" style",html.text)for each in title:#print each
    count+=1
    html_url = "http://www.customs.gov.cn"+eachprint "\t",html_urlhtml1 = requests.get(html_url)html1.encoding = "utf-8"
    sensece = html1.textsoup = BeautifulSoup(html1.text, 'html.parser')  # 文档对象
    str1=""
    for k in soup.findAll("div",class_="easysite-info-con"):str1 += str(k).replace("<div class=\"easysite-info-con\">","").replace("</div>","").replace("<p>","").replace("</p>","").replace("\n","").strip()+"@#$^@"print str1 

这样就获取到了网页上的数据并存在字符串里了,然后再教你python操作excel的方法,依旧用代码说事:

book3 = xlwt.Workbook(encoding='utf-8', style_compression=0)
sheet_target3 = book3.add_sheet('test', cell_overwrite_ok=True)
sheet_target3.write(count, 1, q)#q,a是截取的上面str1
sheet_target3.write(count,2,a)
book3.save("ceshi.xls")

总结其来就是这样罗

#encoding=utf-8
import re
from bs4 import BeautifulSoup
import datetime
import requests
import sys
import xlwtreload(sys)
sys.setdefaultencoding("utf-8")
start = datetime.datetime.now()
count=0
book3 = xlwt.Workbook(encoding='utf-8', style_compression=0)
sheet_target3 = book3.add_sheet('test', cell_overwrite_ok=True)
try:for i in range(500):html_frist = "http://www.customs.gov.cn/eportal/ui?currentPage="+str(i)+"&moduleId=76777400f8cf4a66807d98d442234e97&pageId=374089"
        try:html = requests.get(html_frist)except:print "垃圾"
        print html_fristhtml.encoding="utf-8"
        title = re.findall("target=\"_blank\" href=\"(.*)\" style",html.text)for each in title:#print each
            count+=1
            html_url = "http://www.customs.gov.cn"+eachprint "\t",html_urlhtml1 = requests.get(html_url)html1.encoding = "utf-8"
            sensece = html1.textsoup = BeautifulSoup(html1.text, 'html.parser')  # 文档对象

            str1=""
            for k in soup.findAll("div",class_="easysite-info-con"):str1 += str(k).replace("<div class=\"easysite-info-con\">","").replace("</div>","").replace("<p>","").replace("</p>","").replace("\n","").strip()+"@#$^@"
            #print str1[:-5]
            q = str1.split("@#$^@")[0]a = str1.split("@#$^@")[1]sheet_target3.write(count, 1, q)sheet_target3.write(count,2,a)book3.save("ceshi.xls")print countprint "q",qprint "w",a
except:print ("hh")
end =  datetime.datetime.now()
print ("耗时:%s S"%((end-start).seconds))

    其实爬虫很简单的,不会用soup,就可以只使用request,其中request中的get和post还没涉及到,期待下次我的杰作.

    下次就会讲解具体:

    还是简要介绍一下吧:

        Get是从服务器上获取数据

        Post是向服务器传送数据

        Get通过构造url中的参数来实现功能

        Post将数据放在header提交数据.

这篇关于你会爬虫吗,我来教你爬海关蜀黍的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/827378

相关文章

Python爬虫-贝壳新房

前言 本文是该专栏的第32篇,后面会持续分享python爬虫干货知识,记得关注。 本文以某房网为例,如下图所示,采集对应城市的新房房源数据。具体实现思路和详细逻辑,笔者将在正文结合完整代码进行详细介绍。接下来,跟着笔者直接往下看正文详细内容。(附带完整代码) 正文 地址:aHR0cHM6Ly93aC5mYW5nLmtlLmNvbS9sb3VwYW4v 目标:采集对应城市的

爬虫阶段思考

内容:写这篇文章是因为最近帮同学改了很多的爬虫代码,感触良多。 我用豆瓣为例,并不是不会用别的,而是这个我个人感觉最经典。然后还会写我遇到的一些问题以及解决方法。 首先,我们得先知道怎样爬取。我用的scrapy框架爬取。 我对此图的理解就是: 从spiders中获得一个请求(REQUEST),通过引擎传递给调度器,之后再返回给引擎,引擎把url封装好后传递给下载器,下载器将资源下载好后

简单的php爬虫程序

<?php /** * 爬虫程序 -- 原型 * * BookMoth 2009-02-21 */ /** * 从给定的url获取html内容 * * @param string $url * @return string */ function _getUrlContent($url){ $handle = fopen($url, "r"); if($handle){ $content =

Python爬虫基础-两个实用库

用Python学爬虫最大的好处就是python有很多实用库,免去了我们自己造轮子的环节,那么找哪些轮子呢?Python爬虫有两个比较实用的库,Requests和Beautiful Soup。我认为学好这两个库,Python爬虫也就学的差不多了。 是什么? Requests is the only Non-GMO HTTP library for Python, safe for human

当我们写爬虫的时候,我们实际在做什么?

当我开始学习爬虫的时候,我在网上也开始找相关教程,大多数都是xx分钟学会爬虫一类的文章。并不是否定这些文章的价值,因为他们的确“教会”我如何爬取网页。但我不想停留只会使用工具这一层面上,这就是我想谈谈自己对爬虫的理解。 思考一下我们是怎么样上网的呢? 打开浏览器,习惯性输入百度看看网络连接有没有问题或者输入谷歌看看能不能科学上网。然后我现在的习惯是打开简书首页,看看有没有新的技术类文章或者是鸡汤

技术性屏蔽百度爬虫已经一周了!

很久前明月就发现百度爬虫只抓取、只收录就是不给流量了,加上百度搜索体验越来越差,反正明月已经很久没有用过百度搜索,目前使用的浏览器几乎默认搜索都已经修改成其他搜索引擎了,真要搜索什么,一般都是必应+谷歌结合着使用。所以就一直在纠结要不好屏蔽百度爬虫,上周借助 CloudFlare 的【随机加密】先技术性的屏蔽百度爬虫了。 说起来比较好笑都 2024 年了,早就号称支持 HTTPS 的百度爬虫

13.爬虫---PyMongo安装与使用

13.PyMongo安装与使用 1.安装 PyMongo2.使用PyMongo2.1连接数据库和集合2.2增加数据2.3修改数据2.4查询数据2.5删除数据 3.总结 MongoDB 安装可以看这篇文章MongoDB安装配置教程(详细版) 1.安装 PyMongo PyMongo 是Python中用于连接MongoDB数据库的库,安装起来非常简单。通常情况下,只需要在命

Python中的爬虫实战:豆瓣图书爬虫

Python是当今最热门的编程语言之一,在不同的领域都得到了广泛的应用,如数据科学、人工智能、网络安全等。其中,python在网络爬虫领域表现出色,许多企业和个人利用python进行数据采集和分析。本篇文章将介绍如何使用python爬取豆瓣图书信息,帮助读者初步了解python网络爬虫的实现方法和技术。 首先,对于豆瓣图书信息爬虫,我们需要用到Python中的两个重要的库:urllib和beau

python爬虫学习笔记一(基本概念urllib基础)

学习资料:尚硅谷_爬虫 学习环境:  pycharm 一.爬虫基本概念 爬虫定义 > 解释1:通过程序,根据URL进行爬取网页,获取有用信息 > 解释2:使用程序模拟浏览器,向服务器发送请求,获取相应信息 爬虫核心 > 1.爬取整个网页 > 2.解析数据,获取关心的数据 > 3.难点:爬虫VS非爬虫 爬虫设计思路 > 1.确定爬取的url  > 2.模拟浏览器通过http协议访问url

java-网络爬虫 1

Java中的网络爬虫 1. 网络爬虫的基本概念 网络爬虫(Web Crawler)是一种自动化程序,通常用于遍历网页并提取所需数据。网络爬虫广泛应用于搜索引擎、数据采集、信息监控等领域。它通过模拟浏览器的行为,访问网页、解析内容、提取数据并存储到本地或数据库中。 2. 网络爬虫的基本流程 一个简单的网络爬虫通常包括以下几个步骤: 1. 发送HTTP请求:向目标网页发送HTTP请求,获取网