本文主要是介绍《机器学习(周志华)》Chapter3 线性模型 课后习题答案,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
偏置项b在数值上代表了自变量取0时,因变量的取值;
1.当讨论变量x对结果y的影响,不用考虑b; 2.可以用变量归一化(max-min或z-score)来消除偏置。
这里提供大致思路,对一元函数而言,求二阶导,如果二阶导小于零则为凸函数,否则为非凸。
若对多元函数求二阶导,需要得到Hessian矩阵,然后根据Hessian的正定性判定函数的凸凹性,比如Hessian矩阵半正定,函数为凸函数;Hessian矩阵正定,严格凸函数
https://wenku.baidu.com/view/5bd89d3f5acfa1c7aa00ccd2.html
3.3编程实现对率回归
3.4 10折交叉验证和留一法对率回归的错误率
3.5 编程实现线性判别
给出两种思路:
- 参考书p57,采用广义线性模型,如 y-> ln(y)。
- 参考书p137,采用核方法将非线性特征空间隐式映射到线性空间,得到KLDA(核线性判别分析)。
参考书p66,对OvR、MvM来说,由于对每类进行了相同的处理,其拆解出的二分类任务中类别不平衡的影响会相互抵销,因此通常不需专门处理。
以OvR(一对其余)为例,由于其每次以一个类为正其余为反(参考书p63),共训练出N个分类器,在这一过程中,类别不平衡由O的遍历而抵消掉。
参考网址:
https://blog.csdn.net/snoopy_yuan/article/details/64921495
这篇关于《机器学习(周志华)》Chapter3 线性模型 课后习题答案的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!