本文主要是介绍周志华《机器学习》课后习题解答系列(七):Ch6 - 支持向量机,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
查看相关答案和源代码,欢迎访问我的Github:PY131/Machine-Learning_ZhouZhihua.
本章概要
本章讲述支持向量机(Support Vector Machine,SVM),相关内容包括:
- 支持向量分类器(SVM classifier)
支持向量(support vector)、间隔(margin)、最大间隔(maximum margin)、支持向量机(SVM)、对偶问题(dual problem)、拉格朗日乘子法;
- 核技巧(kernel trick)
特征空间映射、高维可分、内积(inner product)、核函数(kernel function)、核矩阵(kernel matrix)半正定性、再生希尔伯特空间(RHKS)、核函数选择、多项式核、高斯核、Sigmoid核;
- 软间隔(soft margin)
硬间隔、软间隔、松弛变量(slack variables)、替代损失函数(surrogate loss function)、
- 支持向量回归(SVR)
支持向量机的优劣总结
支持向量机模型的好处很多,这里不做赘述,下面列出些在使用支持向量机方法时,需要注意的问题:
- SVM涉及到求解二次规划,在大规模数据的训练时会产生很大的开销,为此常会引入一些高效算法来应对,如采用SOM(sequential minimal optimization)来加速二次优化问题求解;
课后练习
6.1 公式推导
这篇关于周志华《机器学习》课后习题解答系列(七):Ch6 - 支持向量机的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!