本文主要是介绍1.2 处理类别型特征(序号编码、独热编码、二进制编码),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
02 知识点:类别型特征(序号编码、独热编码、二进制编码)
知识点:序号编码(Ordinal Encoding)、独热编码(One-hot Encoding)、二进制编码(Binary Encoding)
摘要:类别型特征指的是在有限选项内取值的特征。处理方法有:序号编码、独热编码、二进制编码。
场景描述
类别型特征(Categorical Feature)主要是指性别(男、女)、血型(A、B、AB、O)等只在有限选项内取值的特征。
类别型特征原始输入通常是字符串形式,除了决策树等少数模型能直接处理字符串形式的输入,对于逻辑回归、支持向量机等模型来说,类别型特征必须经过处理转换成数值型特征才能正确工作。
问题:在对数据进行预处理时,应该怎样处理类别型特征?(难度:2颗星)
分析与解答
-
序号编码
序号编码通常用于处理类别间具有大小关系的数据。
例如成绩,可以分为低、中、高三档,并且存在“高>中>低”的排序关系。序号编码会按照大小关系对类别型特征赋予一个数值ID,例如高表示为3、中表示为2、低表示为1,转换后依然保留了大小关系。
-
独热编码
独热编码通常用于处理类别间不具有大小关系的特征。例如血型,一共有4个取值(A型血、B型血、AB 型血、O型血),独热编码会把血型变成一个4维稀疏向量,A 型血表示为(1,0,0,0),B 型血表示为(0,1,0,0),AB型表示为(0,0,1,0),O型血表示为(0,0,0,1)。
对于类别取值较多的情况下使用独热编码需要注意以下问题。
(1) 使用稀疏向量来节省空间。
在独热编码下,特征向量只有某一维取值为1,其他位置取值均为0。因此可以利用向量的稀疏表示有效地节省空间,并且目前大部分的算法均接受稀疏向量形式的输入。
(2) 配合特征选择来降低维度。
高维度特征会带来几方面的问题。一是在K近邻算法中,高维空间下两点之间的距离很难得到有效的衡量;二是在逻辑回归模型中,参数的数量会随着维度的增高而增加,容易引起过拟合问题;三是通常只有部分维度是对分类、预测有帮助,因此可以考虑配合特征选择来降低维度。
-
二进制编码
二进制编码主要分为两步,先用序号编码给每个类别赋予一个类别ID,然后将类别ID对应的二进制编码作为结果。
以A、B、AB、O血型为例,表1.1是二进制编码的过程。A 型血的ID 为1,二进制表示为001;B型血的ID为2,二进制表示为010;以此类推可以得到AB型血和O型血的二进制表示。
可以看出,二进制编码本质上是利用二进制对ID进行哈希映射,最终得到0/1特征向量,且维数少于独热编码,节省了存储空间。
除了本章介绍的编码方法外,有兴趣的读者还可以进一步了解其他的编码方式,比如Helmer t Contrast、Sum Contrast、PolynomialContrast、Backward Difference Contrast等。
参考文献:
《百面机器学习》 诸葛越主编
出版社:人民邮电出版社(北京)
ISBN:978-7-115-48736-0
2022年1月北京第19次印刷
这篇关于1.2 处理类别型特征(序号编码、独热编码、二进制编码)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!