记录python爬取猫眼票房排行榜(带stonefont字体网页),保存到text文件,csv文件和MongoDB数据库中...

本文主要是介绍记录python爬取猫眼票房排行榜(带stonefont字体网页),保存到text文件,csv文件和MongoDB数据库中...,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

 猫眼票房排行榜页面显示如下:

注意右边的票房数据显示,爬下来的数据是这样显示的:

网页源代码中是这样显示的:

 

 

这是因为网页中使用了某种字体的缘故,分析源代码可知:

 

亲测可行:

  代码中获取的是国内票房榜,稍加修改也可适用于最受期待榜和北美票房榜

 

解决思路如下:

1.获取网页数据后,查找字体信息,获取到字体链接,下载字体保存到本地

2.使用fontTools读取字体中的字符集,并构造字典(依据基准字体)

3.根据字典,替换网页中的相关数据信息。

 

 注意:如果使用BeautifulSoup一定要先使用字典替换字符集,再解析。直接解析BeautifulSoup会将无法识别的字符置为空。

 

#!/usr/bin/env python
# -*- coding: utf-8 -*-
""" 
@Project:pachong
@author:sandu
@Email: sandu12345@msn.cn
@Software: PyCharm
@file: test_maoyan.py 
@time: 2019-01-08 0008 上午 10:05 
"""import csv
import json
import os
import re
from hashlib import md5import pymongo
import requests
from fontTools.ttLib import TTFont
from requests.exceptions import RequestExceptionimport woff2otfMONGO_URL = 'localhost'
MONGO_DB = 'maoyan'
MONGO_TABLE = 'maoyan_beimei'client = pymongo.MongoClient(MONGO_URL, connect=False)
db = client[MONGO_DB]# 获取单页数据
def get_one_page(url):try:response = requests.get(url)if response.status_code == 200:return response.textreturn Noneexcept RequestException:return None# 解析单页数据,获取所需的数据
# '.*?board-index.*?>(\d+).*?' 获取顺序号
# '.*?data-src="(.*?)".*?'    获取图片链接
# '.*?name.*?title.*?>(.*?)</a>.*?'  获取电影名称
# '.*?star">(.*?)</p>.*?',re.S 获取演员名单(有换行,需要加上re.S,否则获取不到数据)
# '.*?releasetime">(.*?)</p>.*?' 获取上映时间
# '.*?integer">(.*?)</i>.*?' 获取主分
# '.*?fraction">(.*?)</i>.*?'获取辅分# '.*?realtime.*?stonefont">(.*?)</span></span>(.*?)</p>.*?' 实时票房
# '.*?total-boxoffice.*?stonefont">(.*?)</span></span>(.*?)</p>.*?' 总票房
# 综合下来,加上最外层的dddef parse_one_page(html):pattern = re.compile('<dd>.*?board-index.*?>(\d+).*?data-src="(.*?)".*?name.*?title.*?>(.*?)</a>.*?star">(.*?)</p>.*?releasetime">(.*?)</p>.*?realtime.*?stonefont">(.*?)</span></span>(.*?)</p>.*?total-boxoffice.*?stonefont">(.*?)</span></span>(.*?)</p>.*?</dd>',re.S)items = re.findall(pattern, html)for item in items:yield {'index': item[0],'img': item[1],'name': item[2].strip(),  # 去除前后空格换行符等'star': item[3].strip()[3:],  # 去除前后空格换行符等,切片截取指定的范围'time': item[4][5:],'实时票房': item[5] + item[6].strip(),'总票房': item[7] + item[8].strip(),}#  保存至文件
def save_to_file(content):# 注意:把json数据保存到文件中显示出中文with open('beimei.text', 'a', encoding='utf-8') as f:f.write(json.dumps(content, ensure_ascii=False) + '\n')# 保存到数据库中
def save_to_mongo(result):if db[MONGO_TABLE].insert(result):print('Successfully Saved to Mongo', result)return Truereturn False# 请求图片url,获取图片二进制数据
def download_image(url):try:response = requests.get(url)if response.status_code == 200:save_image(response.content)  # response.contenter二进制数据 response.text文本数据return Noneexcept RequestException:print('请求图片出错')return None# 数据存储到csv
def write_to_file3(item):with open('beimei.csv', 'a', encoding='utf_8_sig', newline='') as f:# 'a'为追加模式(添加)# utf_8_sig格式导出csv不乱码fieldnames = ['index', 'img', 'name', 'star', 'time', '实时票房', '总票房']w = csv.DictWriter(f, fieldnames=fieldnames)w.writerow(item)# 解析字体
def get_font_regx(html):p = re.compile(r"url\('(.*?)'\)\sformat\('woff'\);")  # 查找网页上的字体链接uni_font_url = re.findall(p, html)url = 'http:%s' % uni_font_url[0]resp = requests.get(url)with open('maoyan.woff', 'wb') as fontfile:for chunk in resp.iter_content(chunk_size=1024):if chunk:fontfile.write(chunk)  # 将字体下载到本地woff2otf.convert('maoyan.woff', 'maoyan.otf')baseFont = TTFont('base.otf')  # base.otf是某一次访问获取的字体文件,然后人工识别内容,作为与后面获取字体的比对标本,从而让电脑自动获得后面获取字体的实际内容。maoyanFont = TTFont('maoyan.otf')uniList = maoyanFont['cmap'].tables[0].ttFont.getGlyphOrder()  # 解析otf字体后获得的数据numList = []  # 解析otf字体数据转换成数字baseNumList = ['.', '3', '5', '1', '2', '7', '0', '6', '9', '8', '4']baseUniCode = ['x', 'uniE78E', 'uniF176', 'uniEFE6', 'uniF074', 'uniE9C8', 'uniE912', 'uniEA71', 'uniE74E','uniE4B8', 'uniEE71']for i in range(1, 12):maoyanGlyph = maoyanFont['glyf'][uniList[i]]for j in range(11):baseGlyph = baseFont['glyf'][baseUniCode[j]]if maoyanGlyph == baseGlyph:numList.append(baseNumList[j])breakuniList[1] = 'uni0078'new_dict = dict(zip(uniList[2:], numList[1:]))  # 实时获取字体映射关系html = html.replace('&#x', 'uni')for key in new_dict.keys():initstr = key.lower() + ';'html = html.replace(initstr, new_dict[key])return htmldef save_image(content):file_path = '{0}/{1}.{2}'.format(os.getcwd(), md5(content).hexdigest(), 'jpg')if not os.path.exists(file_path):with open(file_path, 'wb') as f:f.write(content)def main(offset):url = 'https://maoyan.com/board/2?offset=' + str(offset)  # 针对分页html = get_one_page(url)html = get_font_regx(html)for item in parse_one_page(html):print(item)save_to_file(item)  # 保存至文件write_to_file3(item)  # 写入到csv文件中,一定要写在保存到数据库的前面,因为先保存到数据库后保存的字典数据中会多一个_id值save_to_mongo(item)  # 保存到数据库# download_image(item['img']) # 下载图片保存到当前目录if __name__ == '__main__':# for i in range(0, 100):#     main(str(i*10))# 开启多线程# pool = Pool()# pool.map(main,0)
main(0)

 

 

 


# 注:如何获取代码中base.otf相关信息?
# 1.根据获取到的woff字体文件,使用百度字体编辑器,获取字体数字等相关信息,地址:http://fontstore.baidu.com/static/editor/index.html


# 2.将获取到的woff文件使用woff2otf.convert('maoyan.woff', 'base.otf')转化成base.otf文件保存到当前目录(./woff2otf.py font.woff font.otf),从而获得baseFont(代码中变量)
# 3.根据百度字体编辑器获取到的信息,构造baseNumList和baseUniCode(代码中变量)

# 4.再次发起请求根据获得的字体跟这个构造的基准字体进行对照,从而获得新的字体映射关系

# 注: woff2otf是导入的一个py文件,链接地址:https://github.com/hanikesn/woff2otf,作用是输入woff字体,输出otf字体

# 保存到csv文件中

 

 



 

# 保存到MongoDB数据库中

 

转载于:https://www.cnblogs.com/sanduzxcvbnm/p/10239761.html

这篇关于记录python爬取猫眼票房排行榜(带stonefont字体网页),保存到text文件,csv文件和MongoDB数据库中...的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/339979

相关文章

网页解析 lxml 库--实战

lxml库使用流程 lxml 是 Python 的第三方解析库,完全使用 Python 语言编写,它对 XPath表达式提供了良好的支 持,因此能够了高效地解析 HTML/XML 文档。本节讲解如何通过 lxml 库解析 HTML 文档。 pip install lxml lxm| 库提供了一个 etree 模块,该模块专门用来解析 HTML/XML 文档,下面来介绍一下 lxml 库

Spring Security基于数据库验证流程详解

Spring Security 校验流程图 相关解释说明(认真看哦) AbstractAuthenticationProcessingFilter 抽象类 /*** 调用 #requiresAuthentication(HttpServletRequest, HttpServletResponse) 决定是否需要进行验证操作。* 如果需要验证,则会调用 #attemptAuthentica

python: 多模块(.py)中全局变量的导入

文章目录 global关键字可变类型和不可变类型数据的内存地址单模块(单个py文件)的全局变量示例总结 多模块(多个py文件)的全局变量from x import x导入全局变量示例 import x导入全局变量示例 总结 global关键字 global 的作用范围是模块(.py)级别: 当你在一个模块(文件)中使用 global 声明变量时,这个变量只在该模块的全局命名空

MySQL数据库宕机,启动不起来,教你一招搞定!

作者介绍:老苏,10余年DBA工作运维经验,擅长Oracle、MySQL、PG、Mongodb数据库运维(如安装迁移,性能优化、故障应急处理等)公众号:老苏畅谈运维欢迎关注本人公众号,更多精彩与您分享。 MySQL数据库宕机,数据页损坏问题,启动不起来,该如何排查和解决,本文将为你说明具体的排查过程。 查看MySQL error日志 查看 MySQL error日志,排查哪个表(表空间

【Python编程】Linux创建虚拟环境并配置与notebook相连接

1.创建 使用 venv 创建虚拟环境。例如,在当前目录下创建一个名为 myenv 的虚拟环境: python3 -m venv myenv 2.激活 激活虚拟环境使其成为当前终端会话的活动环境。运行: source myenv/bin/activate 3.与notebook连接 在虚拟环境中,使用 pip 安装 Jupyter 和 ipykernel: pip instal

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

nudepy,一个有趣的 Python 库!

更多资料获取 📚 个人网站:ipengtao.com 大家好,今天为大家分享一个有趣的 Python 库 - nudepy。 Github地址:https://github.com/hhatto/nude.py 在图像处理和计算机视觉应用中,检测图像中的不适当内容(例如裸露图像)是一个重要的任务。nudepy 是一个基于 Python 的库,专门用于检测图像中的不适当内容。该

Node.js学习记录(二)

目录 一、express 1、初识express 2、安装express 3、创建并启动web服务器 4、监听 GET&POST 请求、响应内容给客户端 5、获取URL中携带的查询参数 6、获取URL中动态参数 7、静态资源托管 二、工具nodemon 三、express路由 1、express中路由 2、路由的匹配 3、路由模块化 4、路由模块添加前缀 四、中间件

pip-tools:打造可重复、可控的 Python 开发环境,解决依赖关系,让代码更稳定

在 Python 开发中,管理依赖关系是一项繁琐且容易出错的任务。手动更新依赖版本、处理冲突、确保一致性等等,都可能让开发者感到头疼。而 pip-tools 为开发者提供了一套稳定可靠的解决方案。 什么是 pip-tools? pip-tools 是一组命令行工具,旨在简化 Python 依赖关系的管理,确保项目环境的稳定性和可重复性。它主要包含两个核心工具:pip-compile 和 pip