[译]sklearn.decomposition.TruncatedSVD

2024-03-30 10:18

本文主要是介绍[译]sklearn.decomposition.TruncatedSVD,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

class sklearn.decomposition.TruncatedSVD(n_components=2, algorithm=’randomized’, n_iter=5, random_state=None, tol=0.0)

采用阶段奇异值分解SVD降维。

与PCA相比,这种方式再计算SVD之前不指定数据中心。这意味着他可以有效的处理scipy.sparse稀疏矩阵。

特别的, truncated SVD作用于sklearn.feature_extraction.text向量化后返回的 term count/tf-idf矩阵。在这种情况下又被成为LSA( latent semantic analysis)

这种估计支持两种算法:快速随机SVD;更有效的用ARPACK 作为本征求解的朴素算法。

  • Parameters

Parameters数据类型意义
n_componentsint, default = 2目标输出维度,必须少于特征维数,默认数据是为了可视化;对于LSA推荐100
algorithmstring, default = “randomized”SVD求解用,arpack或者randomized
n_iterint, optional (default 5)randomized SVD solver的迭代次数,ARPACK不可用
random_stateint, RandomState instance or None, optional, default = Noneint:随机数发生器种子
RandomState instance:random_state是随机数发生器
None:np.random采用的RandomState实例
tolfloat, optionalARPACK的公差
0:machine precision
randomized SVD solver忽略
  • Attributes

Attributes数据类型意义
components_array, shape (n_components, n_features)
explained_variance_array, shape (n_components,)公差
explained_variance_ratio_array, shape (n_components,)
singular_values_array, shape (n_components,)每个选定components的奇异值
  • Method

Method意义
fit(self, X[, y])通过X拟合LSI
fit_transform(self, X[, y])Fit LSI model to X and perform dimensionality reduction on X.
get_params(self[, deep])Get parameters for this estimator.
inverse_transform(self, X)Transform X back to its original space.
set_params(self, **params)Set the parameters of this estimator.
transform(self, X)Perform dimensionality reduction on X.

这篇关于[译]sklearn.decomposition.TruncatedSVD的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/861218

相关文章

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

【机器学习 sklearn】模型正则化L1-Lasso,L2-Ridge

#coding:utf-8from __future__ import divisionimport sysreload(sys)sys.setdefaultencoding('utf-8')import timestart_time = time.time()import pandas as pd# 输入训练样本的特征以及目标值,分别存储在变量X_train与y_train之中。

【机器学习 sklearn】特征筛选feature_selection

特征筛选更加侧重于寻找那些对模型的性能提升较大的少量特征。 继续沿用Titannic数据集,这次试图通过特征刷选来寻找最佳的特征组合,并且达到提高预测准确性的目标。 #coding:utf-8from __future__ import divisionimport sysreload(sys)sys.setdefaultencoding('utf-8')import timest

结合sklearn说一下特征选择

特征选择(排序)对于数据科学家、机器学习从业者来说非常重要。好的特征选择能够提升模型的性能,更能帮助我们理解数据的特点、底层结构,这对进一步改善模型、算法都有着重要作用。 特征选择主要有两个功能: 减少特征数量、降维,使模型泛化能力更强,减少过拟合增强对特征和特征值之间的理解 拿到数据集,一个特征选择方法,往往很难同时完成这两个目的。通常情况下,我们经常不管三七二十一,选择一种自己最熟悉或者

【HDU】5958 New Signal Decomposition【离散对数下的FFT】

题目链接:【HDU】5958 New Signal Decomposition 在此先感谢小q对我的指导,没有q老师的帮助,估计永远也做不出来了。 首先我们考虑对这个式子做离散对数。令 g g为pp的某个原根,则有: bi=∑p−1j=0aj⋅r(i,j) \quad b_i=\sum_{j=0}^{p-1}a_j\cdot r(i,j) bi=∑p−1j=0aj⋅2sin32πi⋅j

5.sklearn-朴素贝叶斯算法、决策树、随机森林

文章目录 环境配置(必看)头文件引用1.朴素贝叶斯算法代码运行结果优缺点 2.决策树代码运行结果决策树可视化图片优缺点 3.随机森林代码RandomForestClassifier()运行结果总结 环境配置(必看) Anaconda-创建虚拟环境的手把手教程相关环境配置看此篇文章,本专栏深度学习相关的版本和配置,均按照此篇文章进行安装。 头文件引用 from sklear

4.sklearn-K近邻算法、模型选择与调优

文章目录 环境配置(必看)头文件引用1.sklearn转换器和估计器1.1 转换器 - 特征工程的父类1.2 估计器(sklearn机器学习算法的实现) 2.K-近邻算法2.1 简介:2.2 K-近邻算法API2.3 K-近邻算法代码2.4 运行结果2.5 K-近邻算法优缺点 3.模型选择与调优3.1 交叉验证(cross validation)3.2 网格搜索(Grid Search)3

复现反向传播BP算法:手动实现与Sklearn MLP对比分析【复现】

完整代码 import numpy as npimport matplotlib.pyplot as pltfrom sklearn.datasets import make_moonsfrom sklearn.model_selection import train_test_splitfrom sklearn.datasets import load_breast_cancerfr

sklearn学习笔记(1)--make_blobs

make_blobs聚类数据生成器简介 scikit中的make_blobs方法常被用来生成聚类算法的测试数据,直观地说,make_blobs会根据用户指定的特征数量、中心点数量、范围等来生成几类数据,这些数据可用于测试聚类算法的效果。 make_blobs方法: sklearn.datasets.make_blobs(n_samples=100, n_features=2,cente

50个BA分析工具第十一个-Functional Decomposition

知识卡片 工具名称: Functional Decomposition(功能分解图) 工具介绍: 有时会写成Functional Decomposition Diagrams——简称FDD,即功能分解图。它帮助我们管理复杂性,降低不确定性,通过分解流程系统功能领域交付。 解决问题: • 大事化小,小事化了。把复杂的东西变成简单的模块,然后去逐一击破。这就是Decomposi