Spark RDD分析各种类型的最喜爱电影TopN技巧

2024-02-07 15:59

本文主要是介绍Spark RDD分析各种类型的最喜爱电影TopN技巧,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

楔子

学习《spark大数据商业实战》第12章节
通过RDD分析大数据电影点评系统各种类型的电影最喜爱电影TopN。本次分析最受男性(女性)喜爱的电影Top10

里面复用了Spark RDD实现电影流行度分析

思路

  1. 因为要使用电影数据RDD,所以复用了Spark RDD实现电影流行度分析
  2. 根据性别过滤数据
  3. 要进行join 需要key-values
  4. join之后的数据(2828,((3793,3),M)) -->(用户(电影id,评分)性别) 转换为Spark RDD实现电影流行度分析需要的格式 (电影,评分,人数) --eg (MovieID,(Rating,1))

demo lambda方式

/*** 2:最受男性欢迎的电影 和最受女性欢迎的电影(RDD方式)使用lambda简化* * @param userDF* @param ratDF*/
public static void popularByRDDSimpleness(SparkSession sparkSession, JavaRDD<String> userRdd, JavaRDD<String> ratRdd) {System.out.println("男性喜爱的10个电影 ByRDD");System.out.println(new DateTime().toString("yyyy-MMM-dd HH:mm:ss:SSS"));// UserID::GenderJavaPairRDD<String, String> user_gender = userRdd.mapToPair(t -> new Tuple2<String, String>(t.split("::")[0], t.split("::")[1]));user_gender.cache();// 评分变为 userid:(电影id,评分)JavaPairRDD<String, Tuple2<String, Long>> user_movie_rat = ratRdd.mapToPair(t -> new Tuple2<String, Tuple2<String, Long>>(t.split("::")[0], new Tuple2<String, Long>(t.split("::")[1], Long.valueOf(t.split("::")[2]))));user_movie_rat.cache();JavaPairRDD<String, Tuple2<Tuple2<String, Long>, String>> user_pairRdd = user_movie_rat.join(user_gender);// user_pairRdd.take(10).forEach(t -> System.out.println(t));// (2828,((3793,3),M))// (2828,((2997,5),M))// 从里面过滤男性JavaPairRDD<String, Tuple2<Tuple2<String, Long>, String>> filter = user_pairRdd.filter(t -> t._2._2.equals("M"));// 将上述过滤之后的结果 (userid,(电影id,评分),性别) 从新构造成 (MovieID,(Rating,1))JavaPairRDD<String, Tuple2<Long, Long>> mapToPair = filter.mapToPair(t -> new Tuple2<String, Tuple2<Long, Long>>(t._2._1._1, new Tuple2<Long, Long>(t._2._1._2, 1L)));/*** 1 所有电影中平均得分最高的Top10电影*/// step 1 把数据变为key-value ,eg (MovieID,(Rating,1))mapToPair.cache();// step 2 通过reduceByKey 汇总,key是MovieID,但是values是(评分总和,点评人数合计)JavaPairRDD<String, Tuple2<Long, Long>> reduceByKey = mapToPair.reduceByKey((a, b) -> new Tuple2<Long, Long>(a._1 + b._1, a._2 + b._2));// step 3 sortByKey(false) 倒序排列JavaPairRDD<Double, String> result = reduceByKey.mapToPair(v1 -> new Tuple2<Double, String>((v1._2._1 * 0.1 / v1._2._2), v1._1));result.sortByKey(false).take(10).forEach(t -> System.out.println(t));System.out.println(new DateTime().toString("yyyy-MMM-dd HH:mm:ss:SSS"));
}

demo SparkSQL方式

/*** 2:最受男性欢迎的电影 和最受女性欢迎的电影(Sql方式)* * @param userDF* @param ratDF*/
public static void popularBySql(SparkSession sparkSession, Dataset<Row> userDF, Dataset<Row> ratDF) {System.out.println("男性喜爱的10个电影 BySQL");System.out.println(new DateTime().toString("yyyy-MMM-dd HH:mm:ss:SSS"));// 2019-一月-03 20:10:05:305userDF.createOrReplaceTempView("t_user");ratDF.createOrReplaceTempView("t_rat");// 选择评论中是男性的评分Dataset<Row> sql = sparkSession.sql("select avg(rat) rat_avg ,MovieID from (" //+ "select r.* from t_rat r , t_user u where u.Gender='M' AND U.UserID = r.UserID )" + //"group by MovieID order by rat_avg desc limit 10");sql.show();System.out.println(new DateTime().toString("yyyy-MMM-dd HH:mm:ss:SSS"));
}

spark RDD方式

GitHub位置 方法是popularByRDD 代码太长 此处不罗列

对比RDD和SparkSQL

对比不是那么充分,仅作为一个参考。由下图发现 RDD方式 所需要的时间会短一点
在这里插入图片描述

这篇关于Spark RDD分析各种类型的最喜爱电影TopN技巧的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/688222

相关文章

Spring Boot Interceptor的原理、配置、顺序控制及与Filter的关键区别对比分析

《SpringBootInterceptor的原理、配置、顺序控制及与Filter的关键区别对比分析》本文主要介绍了SpringBoot中的拦截器(Interceptor)及其与过滤器(Filt... 目录前言一、核心功能二、拦截器的实现2.1 定义自定义拦截器2.2 注册拦截器三、多拦截器的执行顺序四、过

C++ scoped_ptr 和 unique_ptr对比分析

《C++scoped_ptr和unique_ptr对比分析》本文介绍了C++中的`scoped_ptr`和`unique_ptr`,详细比较了它们的特性、使用场景以及现代C++推荐的使用`uni... 目录1. scoped_ptr基本特性主要特点2. unique_ptr基本用法3. 主要区别对比4. u

SpringBoot整合Apache Spark实现一个简单的数据分析功能

《SpringBoot整合ApacheSpark实现一个简单的数据分析功能》ApacheSpark是一个开源的大数据处理框架,它提供了丰富的功能和API,用于分布式数据处理、数据分析和机器学习等任务... 目录第一步、添加android依赖第二步、编写配置类第三步、编写控制类启动项目并测试总结ApacheS

Nginx内置变量应用场景分析

《Nginx内置变量应用场景分析》Nginx内置变量速查表,涵盖请求URI、客户端信息、服务器信息、文件路径、响应与性能等类别,这篇文章给大家介绍Nginx内置变量应用场景分析,感兴趣的朋友跟随小编一... 目录1. Nginx 内置变量速查表2. 核心变量详解与应用场景3. 实际应用举例4. 注意事项Ng

Java多种文件复制方式以及效率对比分析

《Java多种文件复制方式以及效率对比分析》本文总结了Java复制文件的多种方式,包括传统的字节流、字符流、NIO系列、第三方包中的FileUtils等,并提供了不同方式的效率比较,同时,还介绍了遍历... 目录1 背景2 概述3 遍历3.1listFiles()3.2list()3.3org.codeha

Python连接Spark的7种方法大全

《Python连接Spark的7种方法大全》ApacheSpark是一个强大的分布式计算框架,广泛用于大规模数据处理,通过PySpark,Python开发者能够无缝接入Spark生态系统,本文给大家介... 目录第一章:python与Spark集成概述PySpark 的核心优势基本集成配置步骤启动一个简单的

Nginx分布式部署流程分析

《Nginx分布式部署流程分析》文章介绍Nginx在分布式部署中的反向代理和负载均衡作用,用于分发请求、减轻服务器压力及解决session共享问题,涵盖配置方法、策略及Java项目应用,并提及分布式事... 目录分布式部署NginxJava中的代理代理分为正向代理和反向代理正向代理反向代理Nginx应用场景

Redis中的有序集合zset从使用到原理分析

《Redis中的有序集合zset从使用到原理分析》Redis有序集合(zset)是字符串与分值的有序映射,通过跳跃表和哈希表结合实现高效有序性管理,适用于排行榜、延迟队列等场景,其时间复杂度低,内存占... 目录开篇:排行榜背后的秘密一、zset的基本使用1.1 常用命令1.2 Java客户端示例二、zse

Redis中的AOF原理及分析

《Redis中的AOF原理及分析》Redis的AOF通过记录所有写操作命令实现持久化,支持always/everysec/no三种同步策略,重写机制优化文件体积,与RDB结合可平衡数据安全与恢复效率... 目录开篇:从日记本到AOF一、AOF的基本执行流程1. 命令执行与记录2. AOF重写机制二、AOF的

MyBatis Plus大数据量查询慢原因分析及解决

《MyBatisPlus大数据量查询慢原因分析及解决》大数据量查询慢常因全表扫描、分页不当、索引缺失、内存占用高及ORM开销,优化措施包括分页查询、流式读取、SQL优化、批处理、多数据源、结果集二次... 目录大数据量查询慢的常见原因优化方案高级方案配置调优监控与诊断总结大数据量查询慢的常见原因MyBAT