Spark RDD分析各种类型的最喜爱电影TopN技巧

2024-02-07 15:59

本文主要是介绍Spark RDD分析各种类型的最喜爱电影TopN技巧,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

楔子

学习《spark大数据商业实战》第12章节
通过RDD分析大数据电影点评系统各种类型的电影最喜爱电影TopN。本次分析最受男性(女性)喜爱的电影Top10

里面复用了Spark RDD实现电影流行度分析

思路

  1. 因为要使用电影数据RDD,所以复用了Spark RDD实现电影流行度分析
  2. 根据性别过滤数据
  3. 要进行join 需要key-values
  4. join之后的数据(2828,((3793,3),M)) -->(用户(电影id,评分)性别) 转换为Spark RDD实现电影流行度分析需要的格式 (电影,评分,人数) --eg (MovieID,(Rating,1))

demo lambda方式

/*** 2:最受男性欢迎的电影 和最受女性欢迎的电影(RDD方式)使用lambda简化* * @param userDF* @param ratDF*/
public static void popularByRDDSimpleness(SparkSession sparkSession, JavaRDD<String> userRdd, JavaRDD<String> ratRdd) {System.out.println("男性喜爱的10个电影 ByRDD");System.out.println(new DateTime().toString("yyyy-MMM-dd HH:mm:ss:SSS"));// UserID::GenderJavaPairRDD<String, String> user_gender = userRdd.mapToPair(t -> new Tuple2<String, String>(t.split("::")[0], t.split("::")[1]));user_gender.cache();// 评分变为 userid:(电影id,评分)JavaPairRDD<String, Tuple2<String, Long>> user_movie_rat = ratRdd.mapToPair(t -> new Tuple2<String, Tuple2<String, Long>>(t.split("::")[0], new Tuple2<String, Long>(t.split("::")[1], Long.valueOf(t.split("::")[2]))));user_movie_rat.cache();JavaPairRDD<String, Tuple2<Tuple2<String, Long>, String>> user_pairRdd = user_movie_rat.join(user_gender);// user_pairRdd.take(10).forEach(t -> System.out.println(t));// (2828,((3793,3),M))// (2828,((2997,5),M))// 从里面过滤男性JavaPairRDD<String, Tuple2<Tuple2<String, Long>, String>> filter = user_pairRdd.filter(t -> t._2._2.equals("M"));// 将上述过滤之后的结果 (userid,(电影id,评分),性别) 从新构造成 (MovieID,(Rating,1))JavaPairRDD<String, Tuple2<Long, Long>> mapToPair = filter.mapToPair(t -> new Tuple2<String, Tuple2<Long, Long>>(t._2._1._1, new Tuple2<Long, Long>(t._2._1._2, 1L)));/*** 1 所有电影中平均得分最高的Top10电影*/// step 1 把数据变为key-value ,eg (MovieID,(Rating,1))mapToPair.cache();// step 2 通过reduceByKey 汇总,key是MovieID,但是values是(评分总和,点评人数合计)JavaPairRDD<String, Tuple2<Long, Long>> reduceByKey = mapToPair.reduceByKey((a, b) -> new Tuple2<Long, Long>(a._1 + b._1, a._2 + b._2));// step 3 sortByKey(false) 倒序排列JavaPairRDD<Double, String> result = reduceByKey.mapToPair(v1 -> new Tuple2<Double, String>((v1._2._1 * 0.1 / v1._2._2), v1._1));result.sortByKey(false).take(10).forEach(t -> System.out.println(t));System.out.println(new DateTime().toString("yyyy-MMM-dd HH:mm:ss:SSS"));
}

demo SparkSQL方式

/*** 2:最受男性欢迎的电影 和最受女性欢迎的电影(Sql方式)* * @param userDF* @param ratDF*/
public static void popularBySql(SparkSession sparkSession, Dataset<Row> userDF, Dataset<Row> ratDF) {System.out.println("男性喜爱的10个电影 BySQL");System.out.println(new DateTime().toString("yyyy-MMM-dd HH:mm:ss:SSS"));// 2019-一月-03 20:10:05:305userDF.createOrReplaceTempView("t_user");ratDF.createOrReplaceTempView("t_rat");// 选择评论中是男性的评分Dataset<Row> sql = sparkSession.sql("select avg(rat) rat_avg ,MovieID from (" //+ "select r.* from t_rat r , t_user u where u.Gender='M' AND U.UserID = r.UserID )" + //"group by MovieID order by rat_avg desc limit 10");sql.show();System.out.println(new DateTime().toString("yyyy-MMM-dd HH:mm:ss:SSS"));
}

spark RDD方式

GitHub位置 方法是popularByRDD 代码太长 此处不罗列

对比RDD和SparkSQL

对比不是那么充分,仅作为一个参考。由下图发现 RDD方式 所需要的时间会短一点
在这里插入图片描述

这篇关于Spark RDD分析各种类型的最喜爱电影TopN技巧的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/688222

相关文章

SpringBoot中六种批量更新Mysql的方式效率对比分析

《SpringBoot中六种批量更新Mysql的方式效率对比分析》文章比较了MySQL大数据量批量更新的多种方法,指出REPLACEINTO和ONDUPLICATEKEY效率最高但存在数据风险,MyB... 目录效率比较测试结构数据库初始化测试数据批量修改方案第一种 for第二种 case when第三种

解决1093 - You can‘t specify target table报错问题及原因分析

《解决1093-Youcan‘tspecifytargettable报错问题及原因分析》MySQL1093错误因UPDATE/DELETE语句的FROM子句直接引用目标表或嵌套子查询导致,... 目录报js错原因分析具体原因解决办法方法一:使用临时表方法二:使用JOIN方法三:使用EXISTS示例总结报错原

MySQL 多列 IN 查询之语法、性能与实战技巧(最新整理)

《MySQL多列IN查询之语法、性能与实战技巧(最新整理)》本文详解MySQL多列IN查询,对比传统OR写法,强调其简洁高效,适合批量匹配复合键,通过联合索引、分批次优化提升性能,兼容多种数据库... 目录一、基础语法:多列 IN 的两种写法1. 直接值列表2. 子查询二、对比传统 OR 的写法三、性能分析

MySQL中的LENGTH()函数用法详解与实例分析

《MySQL中的LENGTH()函数用法详解与实例分析》MySQLLENGTH()函数用于计算字符串的字节长度,区别于CHAR_LENGTH()的字符长度,适用于多字节字符集(如UTF-8)的数据验证... 目录1. LENGTH()函数的基本语法2. LENGTH()函数的返回值2.1 示例1:计算字符串

Android kotlin中 Channel 和 Flow 的区别和选择使用场景分析

《Androidkotlin中Channel和Flow的区别和选择使用场景分析》Kotlin协程中,Flow是冷数据流,按需触发,适合响应式数据处理;Channel是热数据流,持续发送,支持... 目录一、基本概念界定FlowChannel二、核心特性对比数据生产触发条件生产与消费的关系背压处理机制生命周期

Python使用vllm处理多模态数据的预处理技巧

《Python使用vllm处理多模态数据的预处理技巧》本文深入探讨了在Python环境下使用vLLM处理多模态数据的预处理技巧,我们将从基础概念出发,详细讲解文本、图像、音频等多模态数据的预处理方法,... 目录1. 背景介绍1.1 目的和范围1.2 预期读者1.3 文档结构概述1.4 术语表1.4.1 核

怎样通过分析GC日志来定位Java进程的内存问题

《怎样通过分析GC日志来定位Java进程的内存问题》:本文主要介绍怎样通过分析GC日志来定位Java进程的内存问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、GC 日志基础配置1. 启用详细 GC 日志2. 不同收集器的日志格式二、关键指标与分析维度1.

Java中的雪花算法Snowflake解析与实践技巧

《Java中的雪花算法Snowflake解析与实践技巧》本文解析了雪花算法的原理、Java实现及生产实践,涵盖ID结构、位运算技巧、时钟回拨处理、WorkerId分配等关键点,并探讨了百度UidGen... 目录一、雪花算法核心原理1.1 算法起源1.2 ID结构详解1.3 核心特性二、Java实现解析2.

MySQL中的表连接原理分析

《MySQL中的表连接原理分析》:本文主要介绍MySQL中的表连接原理分析,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1、背景2、环境3、表连接原理【1】驱动表和被驱动表【2】内连接【3】外连接【4编程】嵌套循环连接【5】join buffer4、总结1、背景

深度解析Python装饰器常见用法与进阶技巧

《深度解析Python装饰器常见用法与进阶技巧》Python装饰器(Decorator)是提升代码可读性与复用性的强大工具,本文将深入解析Python装饰器的原理,常见用法,进阶技巧与最佳实践,希望可... 目录装饰器的基本原理函数装饰器的常见用法带参数的装饰器类装饰器与方法装饰器装饰器的嵌套与组合进阶技巧