sparkml和mllib分别实现KMeans算法

2023-12-26 01:48

本文主要是介绍sparkml和mllib分别实现KMeans算法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

正如大家所知道的MLLib这个算法包apache已经宣布只维护不更新了,所以大家如果做算法本人推荐使用ML的算法包。
原理的话本人就不在讲了,因为很多资料都写的比较清晰明白,这里我只写代码
本人在这里写了一些sparkml和mllib的示例入门程序

SparkML


import org.apache.spark.ml.clustering.{KMeans, KMeansModel}
import org.apache.spark.ml.feature.{ VectorAssembler}
import org.apache.spark.rdd.RDD
import org.apache.spark.sql.types.{DoubleType,StructField, StructType}
import org.apache.spark.sql.{Row, SparkSession}
/*** Created by LiuWenSheng on 2017/10/11.*/
object MyKMeans {def main(args: Array[String]) {val sparkSession = SparkSession.builder().appName("mykmeans").master("local[2]").getOrCreate()//本例使用的数据集为鸢尾花数据集,大家可以自行网上下载。val rawData: RDD[String] = sparkSession.sparkContext.textFile("D:/testData/fun.txt")//转换数据格式val data = rawData.map(_.split(",")).map(x=>Row(x(0).toDouble,x(1).toDouble,x(2).toDouble,x(3).toDouble))//创建StructType格式val struct: StructType = StructType(StructField("f1",DoubleType,false)::StructField("f2",DoubleType,false)::StructField("f3",DoubleType,false)::StructField("f4",DoubleType,false)::Nil)//创建DataFrameval df = sparkSession.createDataFrame(data,struct)//把f1~f4转化为向量集合val vectorAssembler = new VectorAssembler().setInputCols(Array("f1","f2","f3","f4")).setOutputCol("features")val kms = new KMeans().setPredictionCol("predictionCol").setFeaturesCol("features").setMaxIter(66).setK(4)val a = vectorAssembler.transform(df)val model: KMeansModel = kms.fit(a)model.transform(a).show(100)val wssse = model.computeCost(a)println("wssse is :"+wssse)//计算聚类的中心点model.clusterCenters.foreach(println)/**                    如果想要使用pipeline的话代码如下            **/
//    val pipeLine: Pipeline = new Pipeline().setStages(Array(vectorAssembler,model))
//    val res: PipelineModel = pipeLine.fit(df)
//    val b: DataFrame = res.transform(df)
//    b.show(130)}
}

结果如下所示:

+---+---+---+---+-----------------+-------------+
| f1| f2| f3| f4|         features|predictionCol|
+---+---+---+---+-----------------+-------------+
|5.1|3.5|1.4|0.2|[5.1,3.5,1.4,0.2]|            3|
|4.9|3.0|1.4|0.2|[4.9,3.0,1.4,0.2]|            0|
|4.7|3.2|1.3|0.2|[4.7,3.2,1.3,0.2]|            0|
|4.6|3.1|1.5|0.2|[4.6,3.1,1.5,0.2]|            0|
|5.0|3.6|1.4|0.2|[5.0,3.6,1.4,0.2]|            3|
|5.4|3.9|1.7|0.4|[5.4,3.9,1.7,0.4]|            3|
|4.6|3.4|1.4|0.3|[4.6,3.4,1.4,0.3]|            0|
|5.0|3.4|1.5|0.2|[5.0,3.4,1.5,0.2]|            0|
|4.4|2.9|1.4|0.2|[4.4,2.9,1.4,0.2]|            0|
|4.9|3.1|1.5|0.1|[4.9,3.1,1.5,0.1]|            0|
+---+---+---+---+-----------------+-------------+
only showing top 10 rowswssse is :71.34822351828443
[4.725,3.1333333333333333,1.4208333333333334,0.19166666666666676]
[5.883606557377049,2.740983606557377,4.388524590163936,1.4344262295081964]
[6.8538461538461535,3.076923076923076,5.715384615384614,2.053846153846153]
[5.265384615384616,3.6807692307692306,1.503846153846154,0.2923076923076923]

SparkMLLib实现KMeans

import org.apache.spark.mllib.clustering.KMeans
import org.apache.spark.mllib.linalg.{Vector, Vectors}
import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}/*** Created by LiuWenSheng on 2017/10/16.*/
object MLLib_KMeans {def main(args: Array[String]) {val conf = new SparkConf().setMaster("local[2]").setAppName("mllibKMeans")val sc = new SparkContext(conf)val data = sc.textFile("D:/testData/fun.txt")//制作vetors向量的RDD用于计算val parseTrainData: RDD[Vector] = data.map { line =>Vectors.dense(line.split(",").take(4).map(_.toDouble))}val numIterators = 66//迭代次数val numClusters = 3 //聚的的类的种树val runs = 3 //运行次数选出最优解//开始训练val model = KMeans.train(parseTrainData,numClusters,numIterators,runs)parseTrainData.map(x=>(x.toString+"is belongs to")+model.predict(x)).collect().foreach(println(_))//计算cost (点到最近的中心平方之和)val wssse = model.computeCost(parseTrainData)println("wssse is:" + wssse)//计算中心点model.clusterCenters.foreach(println(_))println(model.predict(Vectors.dense(6.6,2.9,4.5,1.2)))}
}

结果如下所示:

[5.1,3.5,1.4,0.2]is belongs to0
[4.9,3.0,1.4,0.2]is belongs to0
[4.7,3.2,1.3,0.2]is belongs to0
[4.6,3.1,1.5,0.2]is belongs to0
[5.0,3.6,1.4,0.2]is belongs to0
[5.4,3.9,1.7,0.4]is belongs to0
[4.6,3.4,1.4,0.3]is belongs to0
[5.0,3.4,1.5,0.2]is belongs to0
[4.4,2.9,1.4,0.2]is belongs to0
[4.9,3.1,1.5,0.1]is belongs to0
[5.4,3.7,1.5,0.2]is belongs to0
[4.8,3.4,1.6,0.2]is belongs to0
[4.8,3.0,1.4,0.1]is belongs to0
[4.3,3.0,1.1,0.1]is belongs to0
[5.8,4.0,1.2,0.2]is belongs to0
[5.7,4.4,1.5,0.4]is belongs to0
[5.4,3.9,1.3,0.4]is belongs to0only show a fewwssse is:78.94506582597703
[5.005999999999999,3.4180000000000006,1.4640000000000002,0.2439999999999999]
[6.8538461538461535,3.076923076923076,5.715384615384614,2.053846153846153]
[5.883606557377049,2.740983606557377,4.388524590163936,1.4344262295081964]
2

这篇关于sparkml和mllib分别实现KMeans算法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/537722

相关文章

Java实现检查多个时间段是否有重合

《Java实现检查多个时间段是否有重合》这篇文章主要为大家详细介绍了如何使用Java实现检查多个时间段是否有重合,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录流程概述步骤详解China编程步骤1:定义时间段类步骤2:添加时间段步骤3:检查时间段是否有重合步骤4:输出结果示例代码结语作

使用C++实现链表元素的反转

《使用C++实现链表元素的反转》反转链表是链表操作中一个经典的问题,也是面试中常见的考题,本文将从思路到实现一步步地讲解如何实现链表的反转,帮助初学者理解这一操作,我们将使用C++代码演示具体实现,同... 目录问题定义思路分析代码实现带头节点的链表代码讲解其他实现方式时间和空间复杂度分析总结问题定义给定

Java覆盖第三方jar包中的某一个类的实现方法

《Java覆盖第三方jar包中的某一个类的实现方法》在我们日常的开发中,经常需要使用第三方的jar包,有时候我们会发现第三方的jar包中的某一个类有问题,或者我们需要定制化修改其中的逻辑,那么应该如何... 目录一、需求描述二、示例描述三、操作步骤四、验证结果五、实现原理一、需求描述需求描述如下:需要在

如何使用Java实现请求deepseek

《如何使用Java实现请求deepseek》这篇文章主要为大家详细介绍了如何使用Java实现请求deepseek功能,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录1.deepseek的api创建2.Java实现请求deepseek2.1 pom文件2.2 json转化文件2.2

python使用fastapi实现多语言国际化的操作指南

《python使用fastapi实现多语言国际化的操作指南》本文介绍了使用Python和FastAPI实现多语言国际化的操作指南,包括多语言架构技术栈、翻译管理、前端本地化、语言切换机制以及常见陷阱和... 目录多语言国际化实现指南项目多语言架构技术栈目录结构翻译工作流1. 翻译数据存储2. 翻译生成脚本

如何通过Python实现一个消息队列

《如何通过Python实现一个消息队列》这篇文章主要为大家详细介绍了如何通过Python实现一个简单的消息队列,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录如何通过 python 实现消息队列如何把 http 请求放在队列中执行1. 使用 queue.Queue 和 reque

Python如何实现PDF隐私信息检测

《Python如何实现PDF隐私信息检测》随着越来越多的个人信息以电子形式存储和传输,确保这些信息的安全至关重要,本文将介绍如何使用Python检测PDF文件中的隐私信息,需要的可以参考下... 目录项目背景技术栈代码解析功能说明运行结php果在当今,数据隐私保护变得尤为重要。随着越来越多的个人信息以电子形

使用 sql-research-assistant进行 SQL 数据库研究的实战指南(代码实现演示)

《使用sql-research-assistant进行SQL数据库研究的实战指南(代码实现演示)》本文介绍了sql-research-assistant工具,该工具基于LangChain框架,集... 目录技术背景介绍核心原理解析代码实现演示安装和配置项目集成LangSmith 配置(可选)启动服务应用场景

使用Python快速实现链接转word文档

《使用Python快速实现链接转word文档》这篇文章主要为大家详细介绍了如何使用Python快速实现链接转word文档功能,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 演示代码展示from newspaper import Articlefrom docx import

前端原生js实现拖拽排课效果实例

《前端原生js实现拖拽排课效果实例》:本文主要介绍如何实现一个简单的课程表拖拽功能,通过HTML、CSS和JavaScript的配合,我们实现了课程项的拖拽、放置和显示功能,文中通过实例代码介绍的... 目录1. 效果展示2. 效果分析2.1 关键点2.2 实现方法3. 代码实现3.1 html部分3.2