本文主要是介绍Spark RDD分析各种类型的最喜爱电影TopN技巧,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
楔子
学习《spark大数据商业实战》第12章节
通过RDD分析大数据电影点评系统各种类型的电影最喜爱电影TopN。本次分析最受男性(女性)喜爱的电影Top10
里面复用了Spark RDD实现电影流行度分析
思路
- 因为要使用电影数据RDD,所以复用了Spark RDD实现电影流行度分析
- 根据性别过滤数据
- 要进行join 需要key-values
- join之后的数据
(2828,((3793,3),M))
-->(用户(电影id,评分)性别)
转换为Spark RDD实现电影流行度分析需要的格式(电影,评分,人数)
--eg(MovieID,(Rating,1))
demo lambda方式
/*** 2:最受男性欢迎的电影 和最受女性欢迎的电影(RDD方式)使用lambda简化* * @param userDF* @param ratDF*/
public static void popularByRDDSimpleness(SparkSession sparkSession, JavaRDD<String> userRdd, JavaRDD<String> ratRdd) {System.out.println("男性喜爱的10个电影 ByRDD");System.out.println(new DateTime().toString("yyyy-MMM-dd HH:mm:ss:SSS"));// UserID::GenderJavaPairRDD<String, String> user_gender = userRdd.mapToPair(t -> new Tuple2<String, String>(t.split("::")[0], t.split("::")[1]));user_gender.cache();// 评分变为 userid:(电影id,评分)JavaPairRDD<String, Tuple2<String, Long>> user_movie_rat = ratRdd.mapToPair(t -> new Tuple2<String, Tuple2<String, Long>>(t.split("::")[0], new Tuple2<String, Long>(t.split("::")[1], Long.valueOf(t.split("::")[2]))));user_movie_rat.cache();JavaPairRDD<String, Tuple2<Tuple2<String, Long>, String>> user_pairRdd = user_movie_rat.join(user_gender);// user_pairRdd.take(10).forEach(t -> System.out.println(t));// (2828,((3793,3),M))// (2828,((2997,5),M))// 从里面过滤男性JavaPairRDD<String, Tuple2<Tuple2<String, Long>, String>> filter = user_pairRdd.filter(t -> t._2._2.equals("M"));// 将上述过滤之后的结果 (userid,(电影id,评分),性别) 从新构造成 (MovieID,(Rating,1))JavaPairRDD<String, Tuple2<Long, Long>> mapToPair = filter.mapToPair(t -> new Tuple2<String, Tuple2<Long, Long>>(t._2._1._1, new Tuple2<Long, Long>(t._2._1._2, 1L)));/*** 1 所有电影中平均得分最高的Top10电影*/// step 1 把数据变为key-value ,eg (MovieID,(Rating,1))mapToPair.cache();// step 2 通过reduceByKey 汇总,key是MovieID,但是values是(评分总和,点评人数合计)JavaPairRDD<String, Tuple2<Long, Long>> reduceByKey = mapToPair.reduceByKey((a, b) -> new Tuple2<Long, Long>(a._1 + b._1, a._2 + b._2));// step 3 sortByKey(false) 倒序排列JavaPairRDD<Double, String> result = reduceByKey.mapToPair(v1 -> new Tuple2<Double, String>((v1._2._1 * 0.1 / v1._2._2), v1._1));result.sortByKey(false).take(10).forEach(t -> System.out.println(t));System.out.println(new DateTime().toString("yyyy-MMM-dd HH:mm:ss:SSS"));
}
demo SparkSQL方式
/*** 2:最受男性欢迎的电影 和最受女性欢迎的电影(Sql方式)* * @param userDF* @param ratDF*/
public static void popularBySql(SparkSession sparkSession, Dataset<Row> userDF, Dataset<Row> ratDF) {System.out.println("男性喜爱的10个电影 BySQL");System.out.println(new DateTime().toString("yyyy-MMM-dd HH:mm:ss:SSS"));// 2019-一月-03 20:10:05:305userDF.createOrReplaceTempView("t_user");ratDF.createOrReplaceTempView("t_rat");// 选择评论中是男性的评分Dataset<Row> sql = sparkSession.sql("select avg(rat) rat_avg ,MovieID from (" //+ "select r.* from t_rat r , t_user u where u.Gender='M' AND U.UserID = r.UserID )" + //"group by MovieID order by rat_avg desc limit 10");sql.show();System.out.println(new DateTime().toString("yyyy-MMM-dd HH:mm:ss:SSS"));
}
spark RDD方式
GitHub位置 方法是popularByRDD
代码太长 此处不罗列
对比RDD和SparkSQL
对比不是那么充分,仅作为一个参考。由下图发现 RDD方式 所需要的时间会短一点
这篇关于Spark RDD分析各种类型的最喜爱电影TopN技巧的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!