本文主要是介绍利用spark进行圆周率的计算,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
package exampleimport org.apache.spark.{SparkContext, SparkConf}
import scala.math.random
/*** 利用spark进行圆周率的计算* Created by 汪本成 on 2016/6/10.*/
object SparkPai {def main(args: Array[String]) {val conf = new SparkConf().setAppName("SparkPai").setMaster("local[4]")val sc = new SparkContext(conf)//分片数val slices = if (args.length > 0) args(0).toInt else 2//为避免溢出,n不超过int的最大值val n = math.min(10000L*slices, Int.MaxValue).toInt//计数val count = sc.parallelize(1 until n, slices).map{lines =>//小于1的随机数val x = random*2 - 1//小于1的随机数val y = random*2 - 1//点到圆心的的值,小于1计数一次,超出1就不计算if (x*x + y*y < 1) 1 else 0}.reduce(_+_) //汇总累加落入的圆中的次数//count / n是概率,count落入圆中次的数,n是总次数;println("Pai is roughly " + 4.0 * count / n)sc.stop()}
}
运行结果如下:
这篇关于利用spark进行圆周率的计算的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!