写在前面的话:距离上篇博客竟过去快一个月了,写完神经网络博客正式进入考试模式,几次考试+几篇报告下来弄得心颇不宁静了,今日定下来看到一句鸡血:Tomorrow is another due!也许生活就需要一些deadline~~ 上篇主要介绍了神经网络。首先从生物学神经元出发,引出了它的数学抽象模型–MP神经元以及由两层神经元组成的感知机模型,并基于梯度下降的方法描述了感知机模型的权值调整规则。
上篇主要讨论了决策树算法。首先从决策树的基本概念出发,引出决策树基于树形结构进行决策,进一步介绍了构造决策树的递归流程以及其递归终止条件,在递归的过程中,划分属性的选择起到了关键作用,因此紧接着讨论了三种评估属性划分效果的经典算法,介绍了剪枝策略来解决原生决策树容易产生的过拟合问题,最后简述了属性连续值/缺失值的处理方法。本篇将讨论现阶段十分热门的另一个经典监督学习算法–神经网络(neural n
第十六章 强化学习 此系列文章旨在提炼周志华《机器学习》的核心要点,不断完善中… 16.1 任务与奖赏 通常使用马尔可夫决策过程(MDP)描述目的:找到能长期积累奖赏最大化策略长期奖赏方式 T步积累奖赏: E [ 1 T ∑ t = 1 T r t ] \mathbb{E}[\frac 1 T\sum_{t=1}^Tr_t] E[T1∑t=1Trt] γ折扣积累奖赏: E [ ∑
第十二章 计算学习理论 此系列文章旨在提炼周志华《机器学习》的核心要点,不断完善中… 12.1 基础知识 1、概述 目的:分析学习任务的困难本质,为学习算法提供理论保证) 2、一些定义 令h为从X到Y的映射,h的泛化误差: E ( h ; D ) = P x ∼ D ( h ( x ) ≠ y ) E(h;\mathcal{D})=P_{\bm x\sim\mathcal{D}}(h
第七章 贝叶斯分类器 此系列文章旨在提炼周志华《机器学习》的核心要点,不断完善中… 7.1 贝叶斯决策理论 期望损失(expected loss):在样本x上的“条件风险”(conditional risk) 具体算式: R ( c i ∣ x ) = ∑ j = 1 N λ i j P ( c j ∣ x ) R(c_i|\bm x)=\sum_{j=1}^N\lambda_{ij}P
第六章 支持向量机 此系列文章旨在提炼周志华《机器学习》的核心要点,不断完善中… 6.1 间隔与支持向量 超平面(w,b) 存在多个划分超平面将两类样本分开的情况 线性方程: w T x + b = 0 w^Tx+b=0 wTx+b=0 w w w:法向量,决定超平面方向 b b b:位移项,决定超平面与原点之间的距离 样本空间中任意点到超平面的距离: r = ∣ w T x + b