用go语言爬取珍爱网 | 第三回

2023-10-11 19:30

本文主要是介绍用go语言爬取珍爱网 | 第三回,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

前两节我们获取到了城市的URL和城市名,今天我们来解析用户信息。

用go语言爬取珍爱网 | 第一回

用go语言爬取珍爱网 | 第二回

image

爬虫的算法:

我们要提取返回体中的城市列表,需要用到城市列表解析器;

需要把每个城市里的所有用户解析出来,需要用到城市解析器;

还需要把每个用户的个人信息解析出来,需要用到用户解析器。

image

爬虫整体架构:

Seed把需要爬的request送到engine,engine负责将request里的url送到fetcher去爬取数据,返回utf-8的信息,然后engine将返回信息送到解析器Parser里解析有用信息,返回更多待请求requests和有用信息items,任务队列用于存储待请求的request,engine驱动各模块处理数据,直到任务队列为空。

image

代码实现:

按照上面的思路,设计出城市列表解析器citylist.go代码如下:

package parserimport ("crawler/engine""regexp""log"
)const (//<a href="http://album.zhenai.com/u/1361133512" target="_blank">怎么会迷上你</a>cityReg = `<a href="(http://album.zhenai.com/u/[0-9] )"[^>]*>([^<] )</a>`
)func ParseCity(contents []byte) engine.ParserResult {compile := regexp.MustCompile(cityReg)submatch := compile.FindAllSubmatch(contents, -1)//这里要把解析到的每个URL都生成一个新的requestresult := engine.ParserResult{}for _, m := range submatch {name := string(m[2])log.Printf("UserName:%s URL:%s\n", string(m[2]), string(m[1]))//把用户信息人名加到item里result.Items = append(result.Items, name)result.Requests = append(result.Requests,engine.Request{//用户信息对应的URL,用于之后的用户信息爬取Url : string(m[1]),//这个parser是对城市下面的用户的parseParserFunc : func(bytes []byte) engine.ParserResult {//这里使用闭包的方式;这里不能用m[2],否则所有for循环里的用户都会共用一个名字//需要拷贝m[2] ---- name := string(m[2])return ParseProfile(bytes, name)},})}return result
}

城市解析器city.go如下:

package parserimport ("crawler/engine""regexp""log"
)const (//<a href="http://album.zhenai.com/u/1361133512" target="_blank">怎么会迷上你</a>cityReg = `<a href="(http://album.zhenai.com/u/[0-9] )"[^>]*>([^<] )</a>`
)func ParseCity(contents []byte) engine.ParserResult {compile := regexp.MustCompile(cityReg)submatch := compile.FindAllSubmatch(contents, -1)//这里要把解析到的每个URL都生成一个新的requestresult := engine.ParserResult{}for _, m := range submatch {name := string(m[2])log.Printf("UserName:%s URL:%s\n", string(m[2]), string(m[1]))//把用户信息人名加到item里result.Items = append(result.Items, name)result.Requests = append(result.Requests,engine.Request{//用户信息对应的URL,用于之后的用户信息爬取Url : string(m[1]),//这个parser是对城市下面的用户的parseParserFunc : func(bytes []byte) engine.ParserResult {//这里使用闭包的方式;这里不能用m[2],否则所有for循环里的用户都会共用一个名字//需要拷贝m[2] ---- name := string(m[2])return ParseProfile(bytes, name)},})}return result
}

用户解析器profile.go如下:

package parserimport ("crawler/engine""crawler/model""regexp""strconv"
)var (// <td><span class="label">年龄:</span>25岁</td>ageReg = regexp.MustCompile(`<td><span class="label">年龄:</span>([\d] )岁</td>`)// <td><span class="label">身高:</span>182CM</td>heightReg = regexp.MustCompile(`<td><span class="label">身高:</span>(. )CM</td>`)// <td><span class="label">月收入:</span>5001-8000元</td>incomeReg = regexp.MustCompile(`<td><span class="label">月收入:</span>([0-9-] )元</td>`)//<td><span class="label">婚况:</span>未婚</td>marriageReg = regexp.MustCompile(`<td><span class="label">婚况:</span>(. )</td>`)//<td><span class="label">学历:</span>大学本科</td>educationReg = regexp.MustCompile(`<td><span class="label">学历:</span>(. )</td>`)//<td><span class="label">工作地:</span>安徽蚌埠</td>workLocationReg = regexp.MustCompile(`<td><span class="label">工作地:</span>(. )</td>`)// <td><span class="label">职业: </span>--</td>occupationReg = regexp.MustCompile(`<td><span class="label">职业: </span><span field="">(. )</span></td>`)//  <td><span class="label">星座:</span>射手座</td>xinzuoReg = regexp.MustCompile(`<td><span class="label">星座:</span><span field="">(. )</span></td>`)//<td><span class="label">籍贯:</span>安徽蚌埠</td>hokouReg = regexp.MustCompile(`<td><span class="label">民族:</span><span field="">(. )</span></td>`)// <td><span class="label">住房条件:</span><span field="">--</span></td>houseReg = regexp.MustCompile(`<td><span class="label">住房条件:</span><span field="">(. )</span></td>`)// <td width="150"><span class="grayL">性别:</span>男</td>genderReg = regexp.MustCompile(`<td width="150"><span class="grayL">性别:</span>(. )</td>`)// <td><span class="label">体重:</span><span field="">67KG</span></td>weightReg = regexp.MustCompile(`<td><span class="label">体重:</span><span field="">(. )KG</span></td>`)//<h1 class="ceiling-name ib fl fs24 lh32 blue">怎么会迷上你</h1>//nameReg = regexp.MustCompile(`<h1 class="ceiling-name ib fl fs24 lh32 blue">([^\d] )</h1>  `)//<td><span class="label">是否购车:</span><span field="">未购车</span></td>carReg = regexp.MustCompile(`<td><span class="label">是否购车:</span><span field="">(. )</span></td>`)
)func ParseProfile(contents []byte, name string) engine.ParserResult {profile := model.Profile{}age, err := strconv.Atoi(extractString(contents, ageReg))if err != nil {profile.Age = 0}else {profile.Age = age}height, err := strconv.Atoi(extractString(contents, heightReg))if err != nil {profile.Height = 0}else {profile.Height = height}weight, err := strconv.Atoi(extractString(contents, weightReg))if err != nil {profile.Weight = 0}else {profile.Weight = weight}profile.Income = extractString(contents, incomeReg)profile.Car = extractString(contents, carReg)profile.Education = extractString(contents, educationReg)profile.Gender = extractString(contents, genderReg)profile.Hokou = extractString(contents, hokouReg)profile.Income = extractString(contents, incomeReg)profile.Marriage = extractString(contents, marriageReg)profile.Name = nameprofile.Occupation = extractString(contents, occupationReg)profile.WorkLocation = extractString(contents, workLocationReg)profile.Xinzuo = extractString(contents, xinzuoReg)result := engine.ParserResult{Items: []interface{}{profile},}return result
}//get value by reg from contents
func extractString(contents []byte, re *regexp.Regexp) string {m := re.FindSubmatch(contents)if len(m) > 0 {return string(m[1])} else {return ""}
}

engine代码如下:

package engineimport ("crawler/fetcher""log"
)func Run(seeds ...Request){//这里维持一个队列var requestsQueue []RequestrequestsQueue = append(requestsQueue, seeds...)for len(requestsQueue) > 0 {//取第一个r := requestsQueue[0]//只保留没处理的requestrequestsQueue = requestsQueue[1:]log.Printf("fetching url:%s\n", r.Url)//爬取数据body, err := fetcher.Fetch(r.Url)if err != nil {log.Printf("fetch url: %s; err: %v\n", r.Url, err)//发生错误继续爬取下一个urlcontinue}//解析爬取到的结果result := r.ParserFunc(body)//把爬取结果里的request继续加到request队列requestsQueue = append(requestsQueue, result.Requests...)//打印每个结果里的item,即打印城市名、城市下的人名...for _, item := range result.Items {log.Printf("get item is %v\n", item)}}
}

Fetcher用于发起http get请求,这里有一点注意的是:珍爱网可能做了反爬虫限制手段,所以直接用http.Get(url)方式发请求,会报403拒绝访问;故需要模拟浏览器方式:

client := &http.Client{}req, err := http.NewRequest("GET", url, nil)if err != nil {log.Fatalln("NewRequest is err ", err)return nil, fmt.Errorf("NewRequest is err %v\n", err)}req.Header.Set("User-Agent", "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.181 Safari/537.36")//返送请求获取返回结果resp, err := client.Do(req)

最终fetcher代码如下:

package fetcherimport ("bufio""fmt""golang.org/x/net/html/charset""golang.org/x/text/encoding""golang.org/x/text/encoding/unicode""golang.org/x/text/transform""io/ioutil""log""net/http"
)/**
爬取网络资源函数
*/
func Fetch(url string) ([]byte, error) {client := &http.Client{}req, err := http.NewRequest("GET", url, nil)if err != nil {log.Fatalln("NewRequest is err ", err)return nil, fmt.Errorf("NewRequest is err %v\n", err)}req.Header.Set("User-Agent", "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.181 Safari/537.36")//返送请求获取返回结果resp, err := client.Do(req)//直接用http.Get(url)进行获取信息,爬取时可能返回403,禁止访问//resp, err := http.Get(url)if err != nil {return nil, fmt.Errorf("Error: http Get, err is %v\n", err)}//关闭response bodydefer resp.Body.Close()if resp.StatusCode != http.StatusOK {return nil, fmt.Errorf("Error: StatusCode is %d\n", resp.StatusCode)}//utf8Reader := transform.NewReader(resp.Body, simplifiedchinese.GBK.NewDecoder())bodyReader := bufio.NewReader(resp.Body)utf8Reader := transform.NewReader(bodyReader, determineEncoding(bodyReader).NewDecoder())return ioutil.ReadAll(utf8Reader)
}/**
确认编码格式
*/
func determineEncoding(r *bufio.Reader) encoding.Encoding {//这里的r读取完得保证resp.Body还可读body, err := r.Peek(1024)//如果解析编码类型时遇到错误,返回UTF-8if err != nil {log.Printf("determineEncoding error is %v", err)return unicode.UTF8}//这里简化,不取是否确认e, _, _ := charset.DetermineEncoding(body, "")return e
}

main方法如下:

package mainimport ("crawler/engine""crawler/zhenai/parser"
)func main() {request := engine.Request{Url: "http://www.zhenai.com/zhenghun",ParserFunc: parser.ParseCityList,}engine.Run(request)
}

最终爬取到的用户信息如下,包括昵称、年龄、身高、体重、工资、婚姻状况等。

image

如果你想要哪个妹子的照片,可以点开url查看,然后打招呼进一步发展。

至此单任务版的爬虫就做完了,后面我们将对单任务版爬虫做性能分析,然后升级为多任务并发版,把爬取到的信息存到ElasticSearch中,在页面上查询


作者简洁

作者:小碗汤,一位热爱、认真写作的小伙,目前维护原创公众号:『我的小碗汤』,专注于写golang、docker、kubernetes等知识等提升硬实力的文章,期待你的关注。 转载说明:务必注明来源(注明:来源于公众号:我的小碗汤, 作者:小碗汤)

这篇关于用go语言爬取珍爱网 | 第三回的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/190343

相关文章

深入理解Go语言中二维切片的使用

《深入理解Go语言中二维切片的使用》本文深入讲解了Go语言中二维切片的概念与应用,用于表示矩阵、表格等二维数据结构,文中通过示例代码介绍的非常详细,需要的朋友们下面随着小编来一起学习学习吧... 目录引言二维切片的基本概念定义创建二维切片二维切片的操作访问元素修改元素遍历二维切片二维切片的动态调整追加行动态

go中的时间处理过程

《go中的时间处理过程》:本文主要介绍go中的时间处理过程,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1 获取当前时间2 获取当前时间戳3 获取当前时间的字符串格式4 相互转化4.1 时间戳转时间字符串 (int64 > string)4.2 时间字符串转时间

Go语言中make和new的区别及说明

《Go语言中make和new的区别及说明》:本文主要介绍Go语言中make和new的区别及说明,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1 概述2 new 函数2.1 功能2.2 语法2.3 初始化案例3 make 函数3.1 功能3.2 语法3.3 初始化

Go语言中nil判断的注意事项(最新推荐)

《Go语言中nil判断的注意事项(最新推荐)》本文给大家介绍Go语言中nil判断的注意事项,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录1.接口变量的特殊行为2.nil的合法类型3.nil值的实用行为4.自定义类型与nil5.反射判断nil6.函数返回的

Go语言数据库编程GORM 的基本使用详解

《Go语言数据库编程GORM的基本使用详解》GORM是Go语言流行的ORM框架,封装database/sql,支持自动迁移、关联、事务等,提供CRUD、条件查询、钩子函数、日志等功能,简化数据库操作... 目录一、安装与初始化1. 安装 GORM 及数据库驱动2. 建立数据库连接二、定义模型结构体三、自动迁

Go语言代码格式化的技巧分享

《Go语言代码格式化的技巧分享》在Go语言的开发过程中,代码格式化是一个看似细微却至关重要的环节,良好的代码格式化不仅能提升代码的可读性,还能促进团队协作,减少因代码风格差异引发的问题,Go在代码格式... 目录一、Go 语言代码格式化的重要性二、Go 语言代码格式化工具:gofmt 与 go fmt(一)

Go学习记录之runtime包深入解析

《Go学习记录之runtime包深入解析》Go语言runtime包管理运行时环境,涵盖goroutine调度、内存分配、垃圾回收、类型信息等核心功能,:本文主要介绍Go学习记录之runtime包的... 目录前言:一、runtime包内容学习1、作用:① Goroutine和并发控制:② 垃圾回收:③ 栈和

Go语言中泄漏缓冲区的问题解决

《Go语言中泄漏缓冲区的问题解决》缓冲区是一种常见的数据结构,常被用于在不同的并发单元之间传递数据,然而,若缓冲区使用不当,就可能引发泄漏缓冲区问题,本文就来介绍一下问题的解决,感兴趣的可以了解一下... 目录引言泄漏缓冲区的基本概念代码示例:泄漏缓冲区的产生项目场景:Web 服务器中的请求缓冲场景描述代码

Go语言如何判断两张图片的相似度

《Go语言如何判断两张图片的相似度》这篇文章主要为大家详细介绍了Go语言如何中实现判断两张图片的相似度的两种方法,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 在介绍技术细节前,我们先来看看图片对比在哪些场景下可以用得到:图片去重:自动删除重复图片,为存储空间"瘦身"。想象你是一个

Go语言中Recover机制的使用

《Go语言中Recover机制的使用》Go语言的recover机制通过defer函数捕获panic,实现异常恢复与程序稳定性,具有一定的参考价值,感兴趣的可以了解一下... 目录引言Recover 的基本概念基本代码示例简单的 Recover 示例嵌套函数中的 Recover项目场景中的应用Web 服务器中