python实现CSV特征文件转化为libsvm特征文件输入spark中进行机器学习

2024-04-15 03:38

本文主要是介绍python实现CSV特征文件转化为libsvm特征文件输入spark中进行机器学习,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

    今天早早地下班,闲来无事就继续鼓捣spark了,spark计算能力很强之外还有一个很强大的功能就是机器学习,借助于spark平台的高性能以及高计算能力,机器学习算法也被广泛地开发出来,今天在实际使用spark中提供的机器学习算法的时候遇到一个问题就是:

    当前spark读取的都是libsvm格式的数据,我对于libsvm的了解,仅仅停留在他是台大开发出来的独立运行的svm工具而已,对于libsvm格式的数据还是一片空白,之前自己使用的特征文件大多数为:CSV、txt或者是xls和xlsx格式的,所以这里就出现了问题,上网查了一些关于libsvm数据格式的资料如下:

libsvm数据格式
libsvm使用的训练数据和检验数据文件格式如下:
[label] [index1]:[value1] [index2]:[value2] …
[label] [index1]:[value1] [index2]:[value2] …
label  目标值,就是说class(属于哪一类),就是你要分类的种类,通常是一些整数。
index 是有顺序的索引,通常是连续的整数。就是指特征编号,必须按照升序排列
value 就是特征值,用来train的数据,通常是一堆实数组成。
即:
目标值   第一维特征编号:第一维特征值   第二维特征编号:第二维特征值 …
目标值   第一维特征编号:第一维特征值   第二维特征编号:第二维特征值 …
……
目标值   第一维特征编号:第一维特征值   第二维特征编号:第二维特征值 …例如:0 1:0.656 2:5.48 3:54 4:1 5:7 6:2
表示训练用的特征有4维,第一维是0.656,第二维是5.48,第三维是54,第四维是1,第五维是7,第六维是2  目标值是0
注意:训练和测试数据的格式必须相同,都如上所示。测试数据中的目标值是为了计算误差用。

 

      今天尝试了将CSV格式的数据转化为libsvm格式的数据来使用,经过实践尝试发现可以正常工作,下面是转化的脚本(以skearn自带的鸢尾花数据集为例):

def CSV2Libsvm(data='iris.csv',savepath='iris.txt'):'''将CSV数据格式转化为libsvm数据格式'''csv_reader=csv.reader(open(data))data_list=[]for one_line in csv_reader:if str(one_line[0])!='id':data_list.append(one_line)res_list=[]label_dict={'virginica':'2','versicolor':'1','setosa':'0'}for one_list in data_list:one_tmp_list=[label_dict[one_list[-1]]]for i in range(1,len(one_list)-1):one_tmp=str(i)+':'+str(one_list[i])one_tmp_list.append(one_tmp)res_list.append(' '.join(one_tmp_list))with open(savepath,'wb') as f:for one_line in res_list:f.write(one_line.strip()+'\n')

    转化结果如下:

0 1:5.1 2:3.5 3:1.4 4:0.2
0 1:4.9 2:3 3:1.4 4:0.2
0 1:4.7 2:3.2 3:1.3 4:0.2
0 1:4.6 2:3.1 3:1.5 4:0.2
0 1:5 2:3.6 3:1.4 4:0.2
0 1:5.4 2:3.9 3:1.7 4:0.4
0 1:4.6 2:3.4 3:1.4 4:0.3
0 1:5 2:3.4 3:1.5 4:0.2
0 1:4.4 2:2.9 3:1.4 4:0.2
0 1:4.9 2:3.1 3:1.5 4:0.1
0 1:5.4 2:3.7 3:1.5 4:0.2
0 1:4.8 2:3.4 3:1.6 4:0.2
0 1:4.8 2:3 3:1.4 4:0.1
0 1:4.3 2:3 3:1.1 4:0.1
0 1:5.8 2:4 3:1.2 4:0.2
0 1:5.7 2:4.4 3:1.5 4:0.4
0 1:5.4 2:3.9 3:1.3 4:0.4
0 1:5.1 2:3.5 3:1.4 4:0.3
0 1:5.7 2:3.8 3:1.7 4:0.3
0 1:5.1 2:3.8 3:1.5 4:0.3
0 1:5.4 2:3.4 3:1.7 4:0.2
0 1:5.1 2:3.7 3:1.5 4:0.4
0 1:4.6 2:3.6 3:1 4:0.2
0 1:5.1 2:3.3 3:1.7 4:0.5
0 1:4.8 2:3.4 3:1.9 4:0.2
0 1:5 2:3 3:1.6 4:0.2
0 1:5 2:3.4 3:1.6 4:0.4
0 1:5.2 2:3.5 3:1.5 4:0.2
0 1:5.2 2:3.4 3:1.4 4:0.2
0 1:4.7 2:3.2 3:1.6 4:0.2
0 1:4.8 2:3.1 3:1.6 4:0.2
0 1:5.4 2:3.4 3:1.5 4:0.4
0 1:5.2 2:4.1 3:1.5 4:0.1
0 1:5.5 2:4.2 3:1.4 4:0.2
0 1:4.9 2:3.1 3:1.5 4:0.2
0 1:5 2:3.2 3:1.2 4:0.2
0 1:5.5 2:3.5 3:1.3 4:0.2
0 1:4.9 2:3.6 3:1.4 4:0.1
0 1:4.4 2:3 3:1.3 4:0.2
0 1:5.1 2:3.4 3:1.5 4:0.2
0 1:5 2:3.5 3:1.3 4:0.3
0 1:4.5 2:2.3 3:1.3 4:0.3
0 1:4.4 2:3.2 3:1.3 4:0.2
0 1:5 2:3.5 3:1.6 4:0.6
0 1:5.1 2:3.8 3:1.9 4:0.4
0 1:4.8 2:3 3:1.4 4:0.3
0 1:5.1 2:3.8 3:1.6 4:0.2
0 1:4.6 2:3.2 3:1.4 4:0.2
0 1:5.3 2:3.7 3:1.5 4:0.2
0 1:5 2:3.3 3:1.4 4:0.2
1 1:7 2:3.2 3:4.7 4:1.4
1 1:6.4 2:3.2 3:4.5 4:1.5
1 1:6.9 2:3.1 3:4.9 4:1.5
1 1:5.5 2:2.3 3:4 4:1.3
1 1:6.5 2:2.8 3:4.6 4:1.5
1 1:5.7 2:2.8 3:4.5 4:1.3
1 1:6.3 2:3.3 3:4.7 4:1.6
1 1:4.9 2:2.4 3:3.3 4:1
1 1:6.6 2:2.9 3:4.6 4:1.3
1 1:5.2 2:2.7 3:3.9 4:1.4
1 1:5 2:2 3:3.5 4:1
1 1:5.9 2:3 3:4.2 4:1.5
1 1:6 2:2.2 3:4 4:1
1 1:6.1 2:2.9 3:4.7 4:1.4
1 1:5.6 2:2.9 3:3.6 4:1.3
1 1:6.7 2:3.1 3:4.4 4:1.4
1 1:5.6 2:3 3:4.5 4:1.5
1 1:5.8 2:2.7 3:4.1 4:1
1 1:6.2 2:2.2 3:4.5 4:1.5
1 1:5.6 2:2.5 3:3.9 4:1.1
1 1:5.9 2:3.2 3:4.8 4:1.8
1 1:6.1 2:2.8 3:4 4:1.3
1 1:6.3 2:2.5 3:4.9 4:1.5
1 1:6.1 2:2.8 3:4.7 4:1.2
1 1:6.4 2:2.9 3:4.3 4:1.3
1 1:6.6 2:3 3:4.4 4:1.4
1 1:6.8 2:2.8 3:4.8 4:1.4
1 1:6.7 2:3 3:5 4:1.7
1 1:6 2:2.9 3:4.5 4:1.5
1 1:5.7 2:2.6 3:3.5 4:1
1 1:5.5 2:2.4 3:3.8 4:1.1
1 1:5.5 2:2.4 3:3.7 4:1
1 1:5.8 2:2.7 3:3.9 4:1.2
1 1:6 2:2.7 3:5.1 4:1.6
1 1:5.4 2:3 3:4.5 4:1.5
1 1:6 2:3.4 3:4.5 4:1.6
1 1:6.7 2:3.1 3:4.7 4:1.5
1 1:6.3 2:2.3 3:4.4 4:1.3
1 1:5.6 2:3 3:4.1 4:1.3
1 1:5.5 2:2.5 3:4 4:1.3
1 1:5.5 2:2.6 3:4.4 4:1.2
1 1:6.1 2:3 3:4.6 4:1.4
1 1:5.8 2:2.6 3:4 4:1.2
1 1:5 2:2.3 3:3.3 4:1
1 1:5.6 2:2.7 3:4.2 4:1.3
1 1:5.7 2:3 3:4.2 4:1.2
1 1:5.7 2:2.9 3:4.2 4:1.3
1 1:6.2 2:2.9 3:4.3 4:1.3
1 1:5.1 2:2.5 3:3 4:1.1
1 1:5.7 2:2.8 3:4.1 4:1.3
2 1:6.3 2:3.3 3:6 4:2.5
2 1:5.8 2:2.7 3:5.1 4:1.9
2 1:7.1 2:3 3:5.9 4:2.1
2 1:6.3 2:2.9 3:5.6 4:1.8
2 1:6.5 2:3 3:5.8 4:2.2
2 1:7.6 2:3 3:6.6 4:2.1
2 1:4.9 2:2.5 3:4.5 4:1.7
2 1:7.3 2:2.9 3:6.3 4:1.8
2 1:6.7 2:2.5 3:5.8 4:1.8
2 1:7.2 2:3.6 3:6.1 4:2.5
2 1:6.5 2:3.2 3:5.1 4:2
2 1:6.4 2:2.7 3:5.3 4:1.9
2 1:6.8 2:3 3:5.5 4:2.1
2 1:5.7 2:2.5 3:5 4:2
2 1:5.8 2:2.8 3:5.1 4:2.4
2 1:6.4 2:3.2 3:5.3 4:2.3
2 1:6.5 2:3 3:5.5 4:1.8
2 1:7.7 2:3.8 3:6.7 4:2.2
2 1:7.7 2:2.6 3:6.9 4:2.3
2 1:6 2:2.2 3:5 4:1.5
2 1:6.9 2:3.2 3:5.7 4:2.3
2 1:5.6 2:2.8 3:4.9 4:2
2 1:7.7 2:2.8 3:6.7 4:2
2 1:6.3 2:2.7 3:4.9 4:1.8
2 1:6.7 2:3.3 3:5.7 4:2.1
2 1:7.2 2:3.2 3:6 4:1.8
2 1:6.2 2:2.8 3:4.8 4:1.8
2 1:6.1 2:3 3:4.9 4:1.8
2 1:6.4 2:2.8 3:5.6 4:2.1
2 1:7.2 2:3 3:5.8 4:1.6
2 1:7.4 2:2.8 3:6.1 4:1.9
2 1:7.9 2:3.8 3:6.4 4:2
2 1:6.4 2:2.8 3:5.6 4:2.2
2 1:6.3 2:2.8 3:5.1 4:1.5
2 1:6.1 2:2.6 3:5.6 4:1.4
2 1:7.7 2:3 3:6.1 4:2.3
2 1:6.3 2:3.4 3:5.6 4:2.4
2 1:6.4 2:3.1 3:5.5 4:1.8
2 1:6 2:3 3:4.8 4:1.8
2 1:6.9 2:3.1 3:5.4 4:2.1
2 1:6.7 2:3.1 3:5.6 4:2.4
2 1:6.9 2:3.1 3:5.1 4:2.3
2 1:5.8 2:2.7 3:5.1 4:1.9
2 1:6.8 2:3.2 3:5.9 4:2.3
2 1:6.7 2:3.3 3:5.7 4:2.5
2 1:6.7 2:3 3:5.2 4:2.3
2 1:6.3 2:2.5 3:5 4:1.9
2 1:6.5 2:3 3:5.2 4:2
2 1:6.2 2:3.4 3:5.4 4:2.3
2 1:5.9 2:3 3:5.1 4:1.8

    挺有意思,接下来就可以使用libsvm格式的数据进行机器学习模型的使用了。

这篇关于python实现CSV特征文件转化为libsvm特征文件输入spark中进行机器学习的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/904784

相关文章

Oracle查询优化之高效实现仅查询前10条记录的方法与实践

《Oracle查询优化之高效实现仅查询前10条记录的方法与实践》:本文主要介绍Oracle查询优化之高效实现仅查询前10条记录的相关资料,包括使用ROWNUM、ROW_NUMBER()函数、FET... 目录1. 使用 ROWNUM 查询2. 使用 ROW_NUMBER() 函数3. 使用 FETCH FI

Python脚本实现自动删除C盘临时文件夹

《Python脚本实现自动删除C盘临时文件夹》在日常使用电脑的过程中,临时文件夹往往会积累大量的无用数据,占用宝贵的磁盘空间,下面我们就来看看Python如何通过脚本实现自动删除C盘临时文件夹吧... 目录一、准备工作二、python脚本编写三、脚本解析四、运行脚本五、案例演示六、注意事项七、总结在日常使用

Java实现Excel与HTML互转

《Java实现Excel与HTML互转》Excel是一种电子表格格式,而HTM则是一种用于创建网页的标记语言,虽然两者在用途上存在差异,但有时我们需要将数据从一种格式转换为另一种格式,下面我们就来看看... Excel是一种电子表格格式,广泛用于数据处理和分析,而HTM则是一种用于创建网页的标记语言。虽然两

Java中Springboot集成Kafka实现消息发送和接收功能

《Java中Springboot集成Kafka实现消息发送和接收功能》Kafka是一个高吞吐量的分布式发布-订阅消息系统,主要用于处理大规模数据流,它由生产者、消费者、主题、分区和代理等组件构成,Ka... 目录一、Kafka 简介二、Kafka 功能三、POM依赖四、配置文件五、生产者六、消费者一、Kaf

Python将大量遥感数据的值缩放指定倍数的方法(推荐)

《Python将大量遥感数据的值缩放指定倍数的方法(推荐)》本文介绍基于Python中的gdal模块,批量读取大量多波段遥感影像文件,分别对各波段数据加以数值处理,并将所得处理后数据保存为新的遥感影像... 本文介绍基于python中的gdal模块,批量读取大量多波段遥感影像文件,分别对各波段数据加以数值处

python管理工具之conda安装部署及使用详解

《python管理工具之conda安装部署及使用详解》这篇文章详细介绍了如何安装和使用conda来管理Python环境,它涵盖了从安装部署、镜像源配置到具体的conda使用方法,包括创建、激活、安装包... 目录pytpshheraerUhon管理工具:conda部署+使用一、安装部署1、 下载2、 安装3

Python进阶之Excel基本操作介绍

《Python进阶之Excel基本操作介绍》在现实中,很多工作都需要与数据打交道,Excel作为常用的数据处理工具,一直备受人们的青睐,本文主要为大家介绍了一些Python中Excel的基本操作,希望... 目录概述写入使用 xlwt使用 XlsxWriter读取修改概述在现实中,很多工作都需要与数据打交

使用MongoDB进行数据存储的操作流程

《使用MongoDB进行数据存储的操作流程》在现代应用开发中,数据存储是一个至关重要的部分,随着数据量的增大和复杂性的增加,传统的关系型数据库有时难以应对高并发和大数据量的处理需求,MongoDB作为... 目录什么是MongoDB?MongoDB的优势使用MongoDB进行数据存储1. 安装MongoDB

使用Python实现在Word中添加或删除超链接

《使用Python实现在Word中添加或删除超链接》在Word文档中,超链接是一种将文本或图像连接到其他文档、网页或同一文档中不同部分的功能,本文将为大家介绍一下Python如何实现在Word中添加或... 在Word文档中,超链接是一种将文本或图像连接到其他文档、网页或同一文档中不同部分的功能。通过添加超

Linux使用fdisk进行磁盘的相关操作

《Linux使用fdisk进行磁盘的相关操作》fdisk命令是Linux中用于管理磁盘分区的强大文本实用程序,这篇文章主要为大家详细介绍了如何使用fdisk进行磁盘的相关操作,需要的可以了解下... 目录简介基本语法示例用法列出所有分区查看指定磁盘的区分管理指定的磁盘进入交互式模式创建一个新的分区删除一个存