Spark Mllib之数据类型 - 基于RDD的API

2024-09-01 08:32
文章标签 数据类型 api spark rdd mllib

本文主要是介绍Spark Mllib之数据类型 - 基于RDD的API,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

微信公众号:数据挖掘与分析学习

MLlib支持存储在单个机器上的局部向量和矩阵,以及由一个或多个RDD支持的分布式矩阵。局部向量和局部矩阵是用作公共接口的简单数据模型。其底层线性代数运算由Breeze提供。在监督学习中使用的训练示例在MLlib中称为“labeled point”。

1.局部向量(Local Vector)

局部向量具有整数类型和基于0的索引和双精度浮点型,存储在单个机器上。MLlib支持两种类型的局部向量:密集(dense)和稀疏(sparse)。密集向量由表示其条目值的double数组支持,而稀疏向量由两个并行数组支持:索引数组和值数组。例如,矢量(1.0,0.0,3.0)可以以密集格式表示为[1.0,0.0,3.0],或者以稀疏格式表示为(3,[0,2],[1.0,3.0]),其中3是 矢量的大小。

局部向量的基类是Vector,我们提供了两种实现:DenseVector和SparseVector。我们建议使用Vector中实现的工厂方法来创建局部向量。

package com.cb.spark.mllib;import org.apache.spark.mllib.linalg.Vectors;
import org.apache.spark.mllib.linalg.Vector;
import org.apache.spark.sql.SparkSession;public class DataType {public static void main(String[] args) {SparkSession session=SparkSession.builder().appName("DataType").master("local").getOrCreate();//创建一个密集向量Vector dv=Vectors.dense(1.0,0.0,3.0);//创建一个稀疏向量,需要指定相关的索引苏数组和值数组Vector sv=Vectors.sparse(3, new int[]{0,2},new double[]{1.0,3.0});System.out.println(dv);System.out.println(sv);}
}

2.标记点(Labeled point)

标记点(Labeled point)是与标签/响应(response)相关联的密集或稀疏的局部矢量。在MLlib中,标记点用于监督学习算法。我们使用double类型来存储标签,因此我们可以在回归和分类中使用标记点。对于二进制分类,标签应为0(负)或1(正)。 对于多类分类,标签应该是从零开始的类索引:0,1,2,....

标记点由LabeledPoint表示。

/使用正标签和一个密集特征向量创建一个标记点LabeledPoint pos=new LabeledPoint(1.0, Vectors.dense(1.0,0.0,3.0));//使用负标签和一个稀疏特征向量创建一个标记点LabeledPoint neg=new LabeledPoint(0.0, Vectors.sparse(3, new int[]{0,2},new double[]{1.0,3.0}))

稀疏数据:

在实践中很常见的是稀疏的训练数据。MLlib支持读取以LIBSVM格式存储的训练样例,这是LIBSVM和LIBLINEAR使用的默认格式。它是一种文本格式,其中每一行使用以下格式表示标记的稀疏特征向量:

label index1:value1 index2:value2 ...

其中索引是一个基于升序的。加载后,特征索引将转换为从零开始。

MLUtils.loadLibSVMFile读取以LIBSVM格式存储的训练样例。

RDD<LabeledPoint> rdd = MLUtils.loadLibSVMFile(context.sc(), "./src/main/resources/libsvm_data_test");

3.局部矩阵

局部矩阵具有整数类型的行和列索引以及double类型值,存储在单个机器上。MLlib支持密集矩阵,其条目值以列主要顺序存储在单个double类型数组中;也支持稀疏矩阵,其非零条目值以列主要顺序存储在压缩稀疏列(CSC)格式中。

例如,以下密集矩阵

存储在具有矩阵大小(3,2)的一维数组[1.0,3.0,5.0,2.0,4.0,6.0]中。

Matrix的基类是Matrix,我们提供两种实现:DenseMatrix和SparseMatrix。

我们建议使用Matrices中实现的工厂方法来创建局部矩阵。 请记住,MLlib中的本地矩阵以列主顺序存储。

//创建一个密集矩阵,3行2列Matrix dm=Matrices.dense(3, 2, new double[]{1.0,3.0,5.0,2.0,4.0,6.0});System.out.println(dm);//创建一个稀疏矩阵Matrix sm=Matrices.sparse(3, 2, new int[]{0,1,3},new int[]{0,2,1},new double[]{9,6,8});System.out.println(sm);

4.分布式矩阵

分布式矩阵具有long类型的行和列索引以及double类型值,分布式地存储在一个或多个RDD中。选择正确的格式来存储大型和分布式矩阵非常重要。将分布式矩阵转换为不同的格式可能需要全局混洗(shuffle),这需要很大的代价。到目前为止已经实现了四种类型的分布式矩阵。

基本类型称为RowMatrix。RowMatrix是面向行的分布式矩阵,没有有意义的行索引,例如特征向量的集合。它由行(row)的RDD支持,其中每行(row)是本地向量。我们假设RowMatrix的列数不是很大,因此单个本地向量可以合理地传递给驱动程序,也可以使用单个节点进行存储/操作。IndexedRowMatrix类似于RowMatrix但具有行索引,可用于标识行和执行连接。CoordinateMatrix是以坐标列表(COO)格式存储的分布式矩阵,由其条目的RDD支持。BlockMatrix是由MatrixBlock的RDD支持的分布式矩阵,它是(Int,Int,Matrix)的元组。

分布式矩阵的基础RDD必须是确定性的,因为我们缓存矩阵大小。 通常,使用非确定性RDD可能导致错误。

4.1 RowMatrix

RowMatrix是面向行的分布式矩阵,没有有意义的行索引,由其行的RDD支持,其中每行是本地向量。由于每一行都由局部向量表示,因此列数受整数范围的限制,但实际上它应该小得多。

可以从JavaRDD <Vector>实例创建RowMatrix。 然后我们可以计算其列摘要统计信息。

JavaRDD<Vector> rows = context.parallelize(Arrays.asList(Vectors.dense(1.0, 2.0, 3.0), Vectors.dense(2.0, 5.0, 4.0)));RowMatrix matrix = new RowMatrix(rows.rdd());//获取矩阵大小long m=matrix.numRows(); //2long n=matrix.numCols(); //3System.out.println(m+" "+n);// QR分解QRDecomposition<RowMatrix, Matrix> result = matrix.tallSkinnyQR(false);System.out.println(result.Q());System.out.println(result.R());

4.2IndexedRowMatrix

IndexedRowMatrix类似于RowMatrix但具有有意义的行索引。 它由索引行的RDD支持,因此每行由其索引(long-typed)和本地向量表示。

JavaRDD<IndexedRow> rows = ... // a JavaRDD of indexed rows
// Create an IndexedRowMatrix from a JavaRDD<IndexedRow>.
IndexedRowMatrix mat = new IndexedRowMatrix(rows.rdd());// Get its size.
long m = mat.numRows();
long n = mat.numCols();
// Drop its row indices.
RowMatrix rowMat = mat.toRowMatrix();

4.3 CoordinateMatrix

CoordinateMatrix是由其条目的RDD支持的分布式矩阵。每个条目都是(i:Long,j:Long,value:Double)的元组,其中i是行索引,j是列索引,value是条目值。只有当矩阵的两个维度都很大且矩阵非常稀疏时,才应使用CoordinateMatrix。

可以从JavaRDD <MatrixEntry>实例创建CoordinateMatrix,其中MatrixEntry是一个包装器(long,long,double)。通过调用toIndexedRowMatrix,可以将CoordinateMatrix转换为具有稀疏行的IndexedRowMatrix。目前不支持CoordinateMatrix的其他计算。

JavaRDD<MatrixEntry> entries = ... // a JavaRDD of matrix entries
// Create a CoordinateMatrix from a JavaRDD<MatrixEntry>.
CoordinateMatrix mat = new CoordinateMatrix(entries.rdd());// Get its size.
long m = mat.numRows();
long n = mat.numCols();// Convert it to an IndexRowMatrix whose rows are sparse vectors.
IndexedRowMatrix indexedRowMatrix = mat.toIndexedRowMatrix();

4.4 BlockMatrix

BlockMatrix是由MatrixBlocks的RDD支持的分布式矩阵,其中MatrixBlock是((Int,Int),Matrix)的元组,其中(Int,Int)是块的索引,而Matrix是给定索引处的子矩阵,其大小为rowsPerBlock x colsPerBlock。 BlockMatrix支持添加和乘以另一个BlockMatrix等方法。BlockMatrix还有一个辅助函数validate,可用于检查BlockMatrix是否设置正确。

通过调用toBlockMatrix,可以从IndexedRowMatrix或CoordinateMatrix轻松创建BlockMatrix。toBlockMatrix默认创建大小为1024 x 1024的块。 用户可以通过toBlockMatrix(rowsPerBlock,colsPerBlock)提供值来更改块大小。

JavaRDD<MatrixEntry> entries = ... // a JavaRDD of (i, j, v) Matrix Entries
// Create a CoordinateMatrix from a JavaRDD<MatrixEntry>.
CoordinateMatrix coordMat = new CoordinateMatrix(entries.rdd());
// Transform the CoordinateMatrix to a BlockMatrix
BlockMatrix matA = coordMat.toBlockMatrix().cache();// Validate whether the BlockMatrix is set up properly. Throws an Exception when it is not valid.
// Nothing happens if it is valid.
matA.validate();// Calculate A^T A.
BlockMatrix ata = matA.transpose().multiply(matA);

 

这篇关于Spark Mllib之数据类型 - 基于RDD的API的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1126440

相关文章

Deepseek R1模型本地化部署+API接口调用详细教程(释放AI生产力)

《DeepseekR1模型本地化部署+API接口调用详细教程(释放AI生产力)》本文介绍了本地部署DeepSeekR1模型和通过API调用将其集成到VSCode中的过程,作者详细步骤展示了如何下载和... 目录前言一、deepseek R1模型与chatGPT o1系列模型对比二、本地部署步骤1.安装oll

浅析如何使用Swagger生成带权限控制的API文档

《浅析如何使用Swagger生成带权限控制的API文档》当涉及到权限控制时,如何生成既安全又详细的API文档就成了一个关键问题,所以这篇文章小编就来和大家好好聊聊如何用Swagger来生成带有... 目录准备工作配置 Swagger权限控制给 API 加上权限注解查看文档注意事项在咱们的开发工作里,API

一分钟带你上手Python调用DeepSeek的API

《一分钟带你上手Python调用DeepSeek的API》最近DeepSeek非常火,作为一枚对前言技术非常关注的程序员来说,自然都想对接DeepSeek的API来体验一把,下面小编就来为大家介绍一下... 目录前言免费体验API-Key申请首次调用API基本概念最小单元推理模型智能体自定义界面总结前言最

JAVA调用Deepseek的api完成基本对话简单代码示例

《JAVA调用Deepseek的api完成基本对话简单代码示例》:本文主要介绍JAVA调用Deepseek的api完成基本对话的相关资料,文中详细讲解了如何获取DeepSeekAPI密钥、添加H... 获取API密钥首先,从DeepSeek平台获取API密钥,用于身份验证。添加HTTP客户端依赖使用Jav

C#使用DeepSeek API实现自然语言处理,文本分类和情感分析

《C#使用DeepSeekAPI实现自然语言处理,文本分类和情感分析》在C#中使用DeepSeekAPI可以实现多种功能,例如自然语言处理、文本分类、情感分析等,本文主要为大家介绍了具体实现步骤,... 目录准备工作文本生成文本分类问答系统代码生成翻译功能文本摘要文本校对图像描述生成总结在C#中使用Deep

5分钟获取deepseek api并搭建简易问答应用

《5分钟获取deepseekapi并搭建简易问答应用》本文主要介绍了5分钟获取deepseekapi并搭建简易问答应用,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需... 目录1、获取api2、获取base_url和chat_model3、配置模型参数方法一:终端中临时将加

使用DeepSeek API 结合VSCode提升开发效率

《使用DeepSeekAPI结合VSCode提升开发效率》:本文主要介绍DeepSeekAPI与VisualStudioCode(VSCode)结合使用,以提升软件开发效率,具有一定的参考价值... 目录引言准备工作安装必要的 VSCode 扩展配置 DeepSeek API1. 创建 API 请求文件2.

Rust 数据类型详解

《Rust数据类型详解》本文介绍了Rust编程语言中的标量类型和复合类型,标量类型包括整数、浮点数、布尔和字符,而复合类型则包括元组和数组,标量类型用于表示单个值,具有不同的表示和范围,本文介绍的非... 目录一、标量类型(Scalar Types)1. 整数类型(Integer Types)1.1 整数字

使用SpringBoot创建一个RESTful API的详细步骤

《使用SpringBoot创建一个RESTfulAPI的详细步骤》使用Java的SpringBoot创建RESTfulAPI可以满足多种开发场景,它提供了快速开发、易于配置、可扩展、可维护的优点,尤... 目录一、创建 Spring Boot 项目二、创建控制器类(Controller Class)三、运行

SpringBoot操作spark处理hdfs文件的操作方法

《SpringBoot操作spark处理hdfs文件的操作方法》本文介绍了如何使用SpringBoot操作Spark处理HDFS文件,包括导入依赖、配置Spark信息、编写Controller和Ser... 目录SpringBoot操作spark处理hdfs文件1、导入依赖2、配置spark信息3、cont