本文主要是介绍Spark RDD 笛卡尔积,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
Spark RDD 笛卡尔积
val left = sc.parallelize(List(1,2,3))
val right = sc.parallelize(List(3,4,5,6))
val out = left union right //返回所有元素新的RDD //{1,2,3,3,3,4,5,6}
val insterstions = left intersection right //返回RDD的交集 {3}
val cartesian = left cartesian right //返回两个RDD的笛卡尔积 3*4
这篇关于Spark RDD 笛卡尔积的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!