Machine Learning Week2

2024-09-03 20:48
文章标签 learning machine week2

本文主要是介绍Machine Learning Week2,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Matlab for MAC 下载 address:ClickHere

Matlab for MAC 学习地址:ClickHere

Multivariate Linear Regression

当有更多信息提供来预测时用multivariate linear regression :
n: 有多少已知信息(feature)
x^(i): 第i 个training example的已知信息(指第i行的全部关于已知信息的数据)[i:index]
x^(i)j:在第i行的第j个value
例子:
x^(3) = [1,2,3,4]
x^(2)3 = 2

Hypothese:
x: 表示第x个feature(已知信息)
i : theta
h i(x)= (i0) + (i1*x1) + (i2*x2) + (i3*x3) + (i4*x4)
且,x0 = 1是恒定的(start from 0,i0*x0)
这里写图片描述

这里写图片描述
等于
这里写图片描述

当n=1 Vs. 当n>=1:

[都需要同时更新training example,区别在于右边的]
这里写图片描述

Gradient Descent – Feature Scaling

(1)确保feature都在差不多的计量维度,即x取值的区间要小,参考” -1<= xi <= 1 ” (太大或太小都不行)

(2)使用平均值作图使路径汇集(converge)更快, 找global mini(最中心的地区)也快

Mean Normalisation (由2改进版):
把 xi 换成 xi - ui
注意!!:不采用x0 = 1,因为这样平均值会得零
x1 = (各个feature的值 -feature的平均值)/ 最大- 最小
这里写图片描述

Gradient Descent – Learninf Rate

*用x轴的点来校正rate alpha
*gradient的线段越平行x轴,说明gradient descent越converge,因为没有太大变化。
*各种machine learning问题有各种learning rate, 和converge的范围,所以需要画出Number of iteration的图像。
*两种converge的算法:
-画梯度图像,观察趋于平行区域
-自动化converge test
这里写图片描述
这里写图片描述

Features & Polynomial Regression
Normal Equation

用matrix[x0 到 xn](新增x0 = 1)与vector[y]来表达
x = m*(n+1) y = m*1 theta(dimension) = number of column(n+1)
这里写图片描述 (n+1)Dimention feature vector
这里写图片描述只有一个feature(没有feature记为1)
Theta:公式:
这里写图片描述
这里写图片描述

选择feature scale(gradient descent)normal equation 做。
normal equation不用担心x feature的取值范围。
m: training examples n:features

Gradient Descent

-好处
(1)当n 越大,运行越好

-坏处
(1)选择alpha(learning rate)
(2)需要好多重复(itaration)

Normal Eqaution

-好处
(1)不需要选择alpha(learning rate)
(2)不需要重复(itaration)
-坏处
(1)需要计算(X^TX)^(-1)
(2)当n 越大,运行越慢(大部分用时O^3,从n=10w开始慢下来)

Normal Equation - Noninvertibility

这里写图片描述
产生Non-invertible的原因:
(1)多余的features(linear dependent)

  • 如x1 = in m^2
  • x2 = in feet^2
  • 其实两者都是面积且互相可以换算

(2)太多features

  • 如:m <= n, 解决办法:删除一些features,或regulation[pinv(): pseudo inverse function]使用不同线性代数的库的方法叫违逆[pseudo-inverse]
  • 即使x’x的结果non-inverse,但算法过程依然正确,出现non-inverse matrix 情况极少, 所以可以忽略在线性回归[linear regretion]过程里的non-inverse问题

Quiz 1

这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述

Quiz 2

这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
第三题解答:[Click Here]
这里写图片描述
![这里写图片描述](https://img-blog.csdn.net/20160715214833505
第四题根据Vectorisation的内容,还能写成:z= v’ * w (区分单个for loop 与 嵌套for loop的区别)
这里写图片描述
A = log(x);
这里写图片描述
这里写图片描述

这篇关于Machine Learning Week2的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1134007

相关文章

简单的Q-learning|小明的一维世界(3)

简单的Q-learning|小明的一维世界(1) 简单的Q-learning|小明的一维世界(2) 一维的加速度世界 这个世界,小明只能控制自己的加速度,并且只能对加速度进行如下三种操作:增加1、减少1、或者不变。所以行动空间为: { u 1 = − 1 , u 2 = 0 , u 3 = 1 } \{u_1=-1, u_2=0, u_3=1\} {u1​=−1,u2​=0,u3​=1}

简单的Q-learning|小明的一维世界(2)

上篇介绍了小明的一维世界模型 、Q-learning的状态空间、行动空间、奖励函数、Q-table、Q table更新公式、以及从Q值导出策略的公式等。最后给出最简单的一维位置世界的Q-learning例子,从给出其状态空间、行动空间、以及稠密与稀疏两种奖励函数的设置方式。下面将继续深入,GO! 一维的速度世界 这个世界,小明只能控制自己的速度,并且只能对速度进行如下三种操作:增加1、减

ZOJ 3324 Machine(线段树区间合并)

这道题网上很多代码是错误的,由于后台数据水,他们可以AC。 比如这组数据 10 3 p 0 9 r 0 5 r 6 9 输出应该是 0 1 1 所以有的人直接记录该区间是否被覆盖过的方法是错误的 正确方法应该是记录这段区间的最小高度(就是最接近初始位置的高度),和最小高度对应的最长左区间和右区间 开一个sum记录这段区间最小高度的块数,min_v 记录该区间最小高度 cover

Learning Memory-guided Normality for Anomaly Detection——学习记忆引导的常态异常检测

又是一篇在自编码器框架中研究使用记忆模块的论文,可以看做19年的iccv的论文的衍生,在我的博客中对19年iccv这篇论文也做了简单介绍。韩国人写的,应该是吧,这名字听起来就像。 摘要abstract 我们解决异常检测的问题,即检测视频序列中的异常事件。基于卷积神经网络的异常检测方法通常利用代理任务(如重建输入视频帧)来学习描述正常情况的模型,而在训练时看不到异常样本,并在测试时使用重建误

Learning Temporal Regularity in Video Sequences——视频序列的时间规则性学习

Learning Temporal Regularity in Video Sequences CVPR2016 无监督视频异常事件检测早期工作 摘要 由于对“有意义”的定义不明确以及场景混乱,因此在较长的视频序列中感知有意义的活动是一个具有挑战性的问题。我们通过在非常有限的监督下使用多种来源学习常规运动模式的生成模型(称为规律性)来解决此问题。体来说,我们提出了两种基于自动编码器的方法,以

COD论文笔记 Adaptive Guidance Learning for Camouflaged Object Detection

论文的主要动机、现有方法的不足、拟解决的问题、主要贡献和创新点如下: 动机: 论文的核心动机是解决伪装目标检测(COD)中的挑战性任务。伪装目标检测旨在识别和分割那些在视觉上与周围环境高度相似的目标,这对于计算机视觉来说是非常困难的任务。尽管深度学习方法在该领域取得了一定进展,但现有方法仍面临有效分离目标和背景的难题,尤其是在伪装目标与背景特征高度相似的情况下。 现有方法的不足之处: 过于

One-Shot Imitation Learning

发表时间:NIPS2017 论文链接:https://readpaper.com/pdf-annotate/note?pdfId=4557560538297540609&noteId=2424799047081637376 作者单位:Berkeley AI Research Lab, Work done while at OpenAI Yan Duan†§ , Marcin Andrychow

Introduction to Deep Learning with PyTorch

1、Introduction to PyTorch, a Deep Learning Library 1.1、Importing PyTorch and related packages import torch# supports:## image data with torchvision## audio data with torchaudio## text data with t

《Learning To Count Everything》CVPR2021

摘要 论文提出了一种新的方法来解决视觉计数问题,即在给定类别中仅有少量标注实例的情况下,对任何类别的对象进行计数。将计数问题视为一个少样本回归任务,并提出了一种新颖的方法,该方法通过查询图像和查询图像中的少量示例对象来预测图像中所有感兴趣对象的存在密度图。此外,还提出了一种新颖的适应策略,使网络能够在测试时仅使用新类别中的少量示例对象来适应任何新的视觉类别。为了支持这一任务,作者还引入了一个包含

One-Shot Imitation Learning with Invariance Matching for Robotic Manipulation

发表时间:5 Jun 2024 论文链接:https://readpaper.com/pdf-annotate/note?pdfId=2408639872513958656&noteId=2408640378699078912 作者单位:Rutgers University Motivation:学习一个通用的policy,可以执行一组不同的操作任务,是机器人技术中一个有前途的新方向。然而,