爬虫—美食天下各类菜谱的菜单信息

2024-01-23 20:20

本文主要是介绍爬虫—美食天下各类菜谱的菜单信息,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章仅用于学习,请勿肆意的爬取网站信息,作为非法用途
文章仅用于学习,请勿肆意的爬取网站信息,作为非法用途
文章仅用于学习,请勿肆意的爬取网站信息,作为非法用途

效果图
在这里插入图片描述
在这里插入图片描述
源码

import csv
import os
import randomimport requests
from lxml import etree# 请求头
head = ['Mozilla/5.0', 'Chrome/78.0.3904.97', 'Safari/537.36']
headers = {'user-agent': head[random.randint(0, 2)]
}def makedir(path):path = path.strip()# 去除尾部 \ 符号path = path.rstrip("\\")if not os.path.exists(path):os.mkdir(path)return Trueelse:return Falsedef getHtml(url):try:response = requests.request("GET", url=url, headers=headers)if response.status_code == 200:response.encoding = 'utf-8'return response.textelse:return response.status_codeexcept Exception as e:return edef htmlToTree(html):return etree.HTML(html)def elementToString(element):return etree.tostring(element, pretty_print=True, encoding='utf-8').decode('utf-8')def parseHtml(html):allcategory = []tree = htmlToTree(html)path = '//div[@class="wrap"]//div[@class="category_box mt20"]/div[@class="category_sub clear"]'data = tree.xpath(path)for item in data:category_list = []div = elementToString(item)div_tree = htmlToTree(div)category = div_tree.xpath('//h3/text()')[0]category_name = div_tree.xpath('//ul/li/a/text()')category_url = div_tree.xpath('//ul/li/a/@href')category_list.append(category)category_list.append(dict(zip(category_name, category_url)))allcategory.append(category_list)return allcategorydef writerCsv(food_list, category_name, name):try:title = [key for key in food_list[0].keys()]  # 表头的代码去掉if '/' in name or category_name:name = name.replace('/', '')category_name = category_name.replace('/', '')path = os.path.join(os.getcwd() + '\\source\\{0}'.format(category_name))flag = makedir(path)csvdata = open('source/{0}/{1}.csv'.format(category_name, name), 'a', encoding='utf-8')dictwriter = csv.DictWriter(csvdata, fieldnames=title)dictwriter.writeheader()# for data in food_dict:#     dictWriter.writerow(data)dictwriter.writerows(food_list)csvdata.close()return Trueexcept Exception as e:return Falsedef parseRecipe(html, category_name, name):tree = htmlToTree(html)path = '//div[@class="wrap"]//div[@id="J_list"]/ul/li'data = tree.xpath(path)food_list = []if data is not None and data != []:for item in data[0:1]:food_dict = {}li = elementToString(item)li_tree = htmlToTree(li)food_name = li_tree.xpath('//div[@class="pic"]/a/@title')[0]food_detailUrl = li_tree.xpath('//div[@class="pic"]/a/@href')[0]food_content = str(li_tree.xpath('//div[@class="detail"]/p[@class="subcontent"]/text()')[0])[3:-1]food_dict["菜名"] = food_namefood_dict["详情链接"] = food_detailUrlfood_dict["原料"] = food_contentfood_list.append(food_dict)res = writerCsv(food_list, category_name, name)return resdef getRecipePerCate(data):res = bool()for items in data[:4]:category_name = items[0]for name, url in items[1].items():html = getHtml(url)res = parseRecipe(html, category_name, name)if res:return "写入成功"else:return "写入失败"if __name__ == '__main__':url = 'https://home.meishichina.com/recipe-type.html'data = parseHtml(getHtml(url))res = getRecipePerCate(data)print(res)

这篇关于爬虫—美食天下各类菜谱的菜单信息的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/637405

相关文章

菲律宾诈骗,请各位华人朋友警惕各类诈骗。

骗子招聘类型:程序开发、客服、财务、销售总管、打字员等 如果有人用高薪、好的工作环境来你出国工作。要小心注意!因为这些骗子是成群结伴的! 只要你进入一个菲律宾的群,不管什么类型的群都有这些骗子团伙。基本上是他们控制的! 天天在群里有工作的信息,工作信息都是非常诱惑人的。例如招“打字员”、“客服”、“程序员”……各种信息都有。只要你提交简历了,他会根据你的简历判断你这个人如何。所谓的心理战嘛!

禁止平板,iPad长按弹出默认菜单事件

通过监控按下抬起时间差来禁止弹出事件,把以下代码写在要禁止的页面的页面加载事件里面即可     var date;document.addEventListener('touchstart', event => {date = new Date().getTime();});document.addEventListener('touchend', event => {if (new

业务中14个需要进行A/B测试的时刻[信息图]

在本指南中,我们将全面了解有关 A/B测试 的所有内容。 我们将介绍不同类型的A/B测试,如何有效地规划和启动测试,如何评估测试是否成功,您应该关注哪些指标,多年来我们发现的常见错误等等。 什么是A/B测试? A/B测试(有时称为“分割测试”)是一种实验类型,其中您创建两种或多种内容变体——如登录页面、电子邮件或广告——并将它们显示给不同的受众群体,以查看哪一种效果最好。 本质上,A/B测

【北交大信息所AI-Max2】使用方法

BJTU信息所集群AI_MAX2使用方法 使用的前提是预约到相应的算力卡,拥有登录权限的账号密码,一般为导师组共用一个。 有浏览器、ssh工具就可以。 1.新建集群Terminal 浏览器登陆10.126.62.75 (如果是1集群把75改成66) 交互式开发 执行器选Terminal 密码随便设一个(需记住) 工作空间:私有数据、全部文件 加速器选GeForce_RTX_2080_Ti

Python3 BeautifulSoup爬虫 POJ自动提交

POJ 提交代码采用Base64加密方式 import http.cookiejarimport loggingimport urllib.parseimport urllib.requestimport base64from bs4 import BeautifulSoupfrom submitcode import SubmitCodeclass SubmitPoj():de

Windows如何添加右键新建菜单

Windows如何添加右键新建菜单 文章目录 Windows如何添加右键新建菜单实验环境缘起以新建`.md`文件为例第一步第二步第三步 总结 实验环境 Windows7 缘起 因为我习惯用 Markdown 格式写文本,每次新建一个.txt后都要手动修改为.md,真的麻烦。如何在右键新建菜单中添加.md选项呢? 网上有很多方法,这些方法我都尝试了,要么太麻烦,要么不凑效

Python:豆瓣电影商业数据分析-爬取全数据【附带爬虫豆瓣,数据处理过程,数据分析,可视化,以及完整PPT报告】

**爬取豆瓣电影信息,分析近年电影行业的发展情况** 本文是完整的数据分析展现,代码有完整版,包含豆瓣电影爬取的具体方式【附带爬虫豆瓣,数据处理过程,数据分析,可视化,以及完整PPT报告】   最近MBA在学习《商业数据分析》,大实训作业给了数据要进行数据分析,所以先拿豆瓣电影练练手,网络上爬取豆瓣电影TOP250较多,但对于豆瓣电影全数据的爬取教程很少,所以我自己做一版。 目

Linux命令(11):系统信息查看命令

系统 # uname -a # 查看内核/操作系统/CPU信息# head -n 1 /etc/issue # 查看操作系统版本# cat /proc/cpuinfo # 查看CPU信息# hostname # 查看计算机名# lspci -tv # 列出所有PCI设备# lsusb -tv

Golang 网络爬虫框架gocolly/colly(五)

gcocolly+goquery可以非常好地抓取HTML页面中的数据,但碰到页面是由Javascript动态生成时,用goquery就显得捉襟见肘了。解决方法有很多种: 一,最笨拙但有效的方法是字符串处理,go语言string底层对应字节数组,复制任何长度的字符串的开销都很低廉,搜索性能比较高; 二,利用正则表达式,要提取的数据往往有明显的特征,所以正则表达式写起来比较简单,不必非常严谨; 三,使

Golang网络爬虫框架gocolly/colly(四)

爬虫靠演技,表演得越像浏览器,抓取数据越容易,这是我多年爬虫经验的感悟。回顾下个人的爬虫经历,共分三个阶段:第一阶段,09年左右开始接触爬虫,那时由于项目需要,要访问各大国际社交网站,Facebook,myspace,filcker,youtube等等,国际上叫得上名字的社交网站都爬过,大部分网站提供restful api,有些功能没有api,就只能用http抓包工具分析协议,自己爬;国内的优酷、