用python爬取影评及影片信息(评论时间、用户ID、评论内容)

2023-10-18 07:10

本文主要是介绍用python爬取影评及影片信息(评论时间、用户ID、评论内容),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

爬虫入门:python爬取某瓣影评及影片信息:影片评分、评论时间、用户ID、评论内容

  • 思路分析
  • 元素定位
  • 完整代码

某瓣网作为比较官方的电影评价网站,有很多对新上映影片的评价,不多说,直接进入正题。
因为版权问题不让放图片

思路分析

爬取的目标网站为某瓣网。可以看到最新上映的电影的相关信息,但是含有电影评论的网址是一个二级链接,需要点击电影进入详细信息才可以查看,所以第一步需要获得影片的链接。观察后可以看到链接如下:
二级网址链接形式
使用BeautifulSoup和正则表达式re库可以解析这个网站所在的class以及确定具体链接所在的位置,具体方式如下:

bs = BeautifulSoup(html.text,'html.parser')
movie_list = bs.find_all(class_='item')
#定位链接元素
links = re.compile('class="nbg" href="(.*?)" title=')
links = re.findall(links,str(movie_list))

可以在控制台看到是否查询成功,得到的结果如下:

['https://movie.douban.com/subject/35118954/', 'https://movie.douban.com/subject/35414623/', 'https://movie.douban.com/subject/35230876/', 'https://movie.douban.com/subject/34477861/', 'https://movie.douban.com/subject/35507172/', 'https://movie.douban.com/subject/35700395/', 'https://movie.douban.com/subject/30362175/', 'https://movie.douban.com/subject/35240235/', 'https://movie.douban.com/subject/35073886/', 'https://movie.douban.com/subject/35056243/']在这里插入代码片

拿到这些链接之后,在分别请求这些链接,分析页面,就可以拿到最后所需要的数据。

for item in links:#TODO 解析页面 定位元素...pass

元素定位

分析页面 得到各个所需的信息所在位置 综合使用re和BeautifulSoup定位即可 以用户ID为例:(因为这里有短评和长评两种,所以分开查询)

 #用户名称user = comment.find_all(class_ = 'comment-info')user = re.findall('href.*?/">(.*?)</a>',str(user))subscriber = re.findall('class="name".*?href.*?/">(.*?)</a>',str(long_comment))#print(subscriber) 打印用户名称信息#['CydenyLau', '斯宾诺莎画板', 'Zion', '莫选好片', '小小X', '今夜', 'Maggie_in_LA', 'Gary', '辉兔的爱与生活', '职业影迷']

这里有一个小tips:查找元素的时候要由大到小查询,先查询大的包含的元素,在慢慢锁定自己需要的内容、有用的信息。理论上来说是可以直接用re精确定位到自己所需要的元素 但是这样定位的精度低、错误率高,不建议使用。

完整代码

完整代码如下,复制就可以直接使用,最后使用Dataframe存储数据,也可以保存到本地:

import requests
import re
from bs4 import BeautifulSoup
import pandas as pdurl = 'https://movie.douban.com/chart'
#headers是将爬虫脚本伪装为浏览器请求 如果没有浏览器headers 请求结果是空的 所以一定要加headers
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/105.0.0.0 Safari/537.36'
}
html = requests.get( url , headers = headers)
bs = BeautifulSoup(html.text,'html.parser')
movie_list = bs.find_all(class_='item')
#定位链接元素
links = re.compile('class="nbg" href="(.*?)" title=')
links = re.findall(links,str(movie_list))#为代码整洁 减少冗余代码 
def collection_data(pakeage = None ,data = None):for item in data:item.replace(" " ,'')pakeage.append(item)return pakeage
#声明容器
movies_title,release_date,movies_rate,comment_user,movie_comment,comment_postline= [],[],[],[],[],[]
#通过链接找到新的页面
for item in links:page = requests.get(item,headers=headers)page = BeautifulSoup(page.text,'html.parser')#标题title = page.find_all(id = 'content' )set_title = re.compile('property="v:itemreviewed">(.*?)</span>')title = re.findall(set_title,str(title))#年份year = page.find_all(class_ = 'year')year = re.findall(">(.*?)</span>",str(year))#评分rate = page.find_all(class_ = 'll rating_num')rate = re.findall('"v:average">(.*?)</strong>',str(rate))#短评信息comment = page.find_all(class_="comment")comment = BeautifulSoup(str(comment),'html.parser')#发表时间postline = comment.find_all(class_= 'comment-time')postline = re.findall('title="(.*?)"',str(postline))#评论内容short_commentary = comment.find_all(class_ = 'comment-content')short_commentary = re.findall('"short">(.*?)</span>',str(short_commentary))#用户名称user = comment.find_all(class_ = 'comment-info')user = re.findall('href.*?/">(.*?)</a>',str(user))#正常影评long_comment = page.find_all(class_ = 'main review-item' )#用户subscriber = re.findall('class="name".*?href.*?/">(.*?)</a>',str(long_comment))#评论发表时间long_comment = BeautifulSoup(str(long_comment),'html.parser')set_time = re.compile('main-meta".*?">(.*?)</span>')posttime = re.findall(set_time,str(long_comment))#commentary = long_comment.find_all(class_ = 'short-content' )set_comment = re.compile('"short-content">(.*?)\(<a.*?</a>',re.S)commentary = re.findall(set_comment,str(commentary))comment_user = collection_data(comment_user,user)comment_user = collection_data(comment_user,subscriber)movie_comment = collection_data(movie_comment,short_commentary)movie_comment = collection_data(movie_comment,commentary)comment_postline = collection_data(comment_postline,postline)comment_postline = collection_data(comment_postline,posttime)for i in range(len(comment_postline)):movies_title = collection_data(movies_title,title)release_date = collection_data(release_date,year)movies_rate = collection_data(movies_rate,rate)#鉴于之前保存到本地会报错 这里直接用print方法打印出来print(movies_title)print(release_date)print(movies_rate)print(comment_postline)dataframe = pd.DataFrame({"title":movies_title,"release_date":release_date,"rate":movies_rate,
})
#保存信息到本地
dataframe.to_csv("本地路径",encoding = 'gbk')

如果对本文有任何疑问 欢迎讨论交流!点个赞再走哦!

这篇关于用python爬取影评及影片信息(评论时间、用户ID、评论内容)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/231004

相关文章

Python的Darts库实现时间序列预测

《Python的Darts库实现时间序列预测》Darts一个集统计、机器学习与深度学习模型于一体的Python时间序列预测库,本文主要介绍了Python的Darts库实现时间序列预测,感兴趣的可以了解... 目录目录一、什么是 Darts?二、安装与基本配置安装 Darts导入基础模块三、时间序列数据结构与

Python正则表达式匹配和替换的操作指南

《Python正则表达式匹配和替换的操作指南》正则表达式是处理文本的强大工具,Python通过re模块提供了完整的正则表达式功能,本文将通过代码示例详细介绍Python中的正则匹配和替换操作,需要的朋... 目录基础语法导入re模块基本元字符常用匹配方法1. re.match() - 从字符串开头匹配2.

Python使用FastAPI实现大文件分片上传与断点续传功能

《Python使用FastAPI实现大文件分片上传与断点续传功能》大文件直传常遇到超时、网络抖动失败、失败后只能重传的问题,分片上传+断点续传可以把大文件拆成若干小块逐个上传,并在中断后从已完成分片继... 目录一、接口设计二、服务端实现(FastAPI)2.1 运行环境2.2 目录结构建议2.3 serv

通过Docker容器部署Python环境的全流程

《通过Docker容器部署Python环境的全流程》在现代化开发流程中,Docker因其轻量化、环境隔离和跨平台一致性的特性,已成为部署Python应用的标准工具,本文将详细演示如何通过Docker容... 目录引言一、docker与python的协同优势二、核心步骤详解三、进阶配置技巧四、生产环境最佳实践

Python一次性将指定版本所有包上传PyPI镜像解决方案

《Python一次性将指定版本所有包上传PyPI镜像解决方案》本文主要介绍了一个安全、完整、可离线部署的解决方案,用于一次性准备指定Python版本的所有包,然后导出到内网环境,感兴趣的小伙伴可以跟随... 目录为什么需要这个方案完整解决方案1. 项目目录结构2. 创建智能下载脚本3. 创建包清单生成脚本4

MyBatis Plus实现时间字段自动填充的完整方案

《MyBatisPlus实现时间字段自动填充的完整方案》在日常开发中,我们经常需要记录数据的创建时间和更新时间,传统的做法是在每次插入或更新操作时手动设置这些时间字段,这种方式不仅繁琐,还容易遗漏,... 目录前言解决目标技术栈实现步骤1. 实体类注解配置2. 创建元数据处理器3. 服务层代码优化填充机制详

Python实现Excel批量样式修改器(附完整代码)

《Python实现Excel批量样式修改器(附完整代码)》这篇文章主要为大家详细介绍了如何使用Python实现一个Excel批量样式修改器,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一... 目录前言功能特性核心功能界面特性系统要求安装说明使用指南基本操作流程高级功能技术实现核心技术栈关键函

python获取指定名字的程序的文件路径的两种方法

《python获取指定名字的程序的文件路径的两种方法》本文主要介绍了python获取指定名字的程序的文件路径的两种方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要... 最近在做项目,需要用到给定一个程序名字就可以自动获取到这个程序在Windows系统下的绝对路径,以下

使用Python批量将.ncm格式的音频文件转换为.mp3格式的实战详解

《使用Python批量将.ncm格式的音频文件转换为.mp3格式的实战详解》本文详细介绍了如何使用Python通过ncmdump工具批量将.ncm音频转换为.mp3的步骤,包括安装、配置ffmpeg环... 目录1. 前言2. 安装 ncmdump3. 实现 .ncm 转 .mp34. 执行过程5. 执行结

Python实现批量CSV转Excel的高性能处理方案

《Python实现批量CSV转Excel的高性能处理方案》在日常办公中,我们经常需要将CSV格式的数据转换为Excel文件,本文将介绍一个基于Python的高性能解决方案,感兴趣的小伙伴可以跟随小编一... 目录一、场景需求二、技术方案三、核心代码四、批量处理方案五、性能优化六、使用示例完整代码七、小结一、