polynomial regression

2024-04-28 20:48
文章标签 regression polynomial

本文主要是介绍polynomial regression,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

在上一节所介绍的非线性回归分析,首先要求我们对回归方程的函数模型做出判断。虽然在一些特定的情况下我们可以比较容易地做到这一点,但是在许多实际问题上常常会令我们不知所措。根据高等数学知识我们知道,任何曲线可以近似地用多项式表示,所以在这种情况下我们可以用多项式进行逼近,即多项式回归分析。

    一、多项式回归方法

假设变量y与x的关系为p次多项式,且在xi处对y的随机误差  (i=1,2,…,n)服从正态分布N(0,),则

    令

xi1=xi, xi2=xi2,…,xip=xip

    则上述非线性的多项式模型就转化为多元线性模型,即

 

    这样我们就可以用前面介绍的多元线性回归分析的方法来解决上述问题了。其系数矩阵、结构矩阵、常数项矩阵分别为

   (2-4-11)

 

                 (2-4-12)

 

                       (2-4-13)

 

    回归方程系数的最小二乘估计为

                       (2-4-14)

需要说明的是,在多项式回归分析中,检验bj是否显著,实质上就是判断x的j次项xj对y是否有显著影响。

对于多元多项式回归问题,也可以化为多元线性回归问题来解决。例如,对于

       (2-4-15)

    令xi1=Zi1, xi2=Zi2, xi3=Zi12, xi4=Zi1Zi2, xi5=Zi22

    则(2-4-15)式转化为

    转化后就可以按照多元线性回归分析的方法解决了。

    下面我们通过一个实例来进一步说明多项式回归分析方法。

    

    一、应用举例

    例2-4-2  某种合金中的主要成分为元素A和B,试验发现这两种元素之和与合金膨胀系数之间有一定的数量关系,试根据表2-4-3给出的试验数据找出y与x之间的回归关系。

表2-4-3  例2-4-2试验数据

 首先画出散点图(图2-4-3)。从散点图可以看出,y与x的关系可以用一个二次多项式来描述:

i=1,2,3…,13

图2-4-3  例2-4-2的散点图

    令

xi1=xi,xi2=xi2,

    则

    现在我们就可以用本篇第二章介绍的方法求出   的最小二乘估计。由表2-4-3给出的数据,求出

    由(2-2-16)式

    由此可列出二元线性方程组

    将这个方程组写成矩阵形式,并通过初等变换求b1,b2和系数矩阵L的逆矩阵L-1:

    于是

    b1=-13.3854

    b2=0.16598

    b0=2.3323+13.3854 40-0.16598 1603.5=271.599

    因此

    下面对回归方程作显著性检验:

    由(2-2-43)式

S=

    由(2-2-42)式

S=

S=Lyy- S=0.2572

 将上述结果代入表2-2-2中制成方差分析表如下:

表2-4-4          方差分析表

 

    查F检验表,F0。01(2,10)=7.56, F>F0.01(2 ,10),说明回归方程是高度显著的。

    下面对回归系数作显著性检验

    由前面的计算结果可知:

    b1=-13.3854            b2=0.16598

    c11=51.125            c22=7.9916 10-3

    由(2-2-54)式

    由(2-2-53)式

    检验结果说明的x一次及二次项对y都有显著影响。

 

1
0

这篇关于polynomial regression的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/944231

相关文章

perl的学习记录——仿真regression

1 记录的背景 之前只知道有这个强大语言的存在,但一直侥幸自己应该不会用到它,所以一直没有开始学习。然而人生这么长,怎就确定自己不会用到呢? 这次要搭建一个可以自动跑完所有case并且打印每个case的pass信息到指定的文件中。从而减轻手动跑仿真,手动查看log信息的重复无效低质量的操作。下面简单记录下自己的思路并贴出自己的代码,方便自己以后使用和修正。 2 思路整理 作为一个IC d

Spark MLlib模型训练—回归算法 Linear regression

Spark MLlib模型训练—回归算法 Linear regression 线性回归是回归分析中最基础且应用广泛的一种方法。它用于建模目标变量和一个或多个自变量之间的关系。随着大数据时代的到来,使用像 Spark 这样的分布式计算框架进行大规模数据处理和建模变得尤为重要。本文将全面解析 Spark 中的线性回归算法,介绍其原理、参数、Scala 实现、代码解读、结果分析以及实际应用场景。 1

Spark MLlib模型训练—回归算法 GLR( Generalized Linear Regression)

Spark MLlib模型训练—回归算法 GLR( Generalized Linear Regression) 在大数据分析中,线性回归虽然常用,但在许多实际场景中,目标变量和特征之间的关系并非线性,这时广义线性回归(Generalized Linear Regression, GLR)便应运而生。GLR 是线性回归的扩展,能够处理非正态分布的目标变量,广泛用于分类、回归以及其他统计建模任务。

regression and anova

regression一般是统计学的回归 回归,研究一个随机变量Y对另一个(X)或一组(X1,X2,…,Xk)变量的相依关系的统计分析方法.研究一 个或多个随机变量Y1 ,Y2 ,…,Yi与另一些变量X1、X2,…,Xk之间的关系的统计方法.又称多重回归分析.通常称Y1,Y2,…,Yi为因变量,X1、X2,…,Xk为自变量.回归分析是一类数学模型,特别当因变量和自变量为线性关系时,它是一种特殊

机器学习—线性回归算法(Linear Regression)

目录 一、基本概念二、线性回归简单分类与模型三、线性回归的关键步骤四、线性回归问题分析五、线性回归问题的解法1、最小二乘法2、梯度下降法 六、线性回归中的过拟合与欠拟合1、过拟合1、岭回归(Ridge Regression)2、套索回归 (Lasso回归)(Lasso Regression)3、弹性网(Elastic Net) 2、欠拟合 七、线性回归中的超参数与模型评估方法1、超参数(Hy

logstic regression

李宏毅的ppt:http://speech.ee.ntu.edu.tw/~tlkagk/courses/ML_2016/Lecture/Logistic%20Regression%20(v3).pdf

Quotient Polynomial

第一次的时候理解错题意了,以为是输入与K有关。。。我也不知道我怎么想的。。。反正后来改对啦 Problem B Quotient Polynomial Time Limit 2 Seconds A polynomial of degree n can be expressed as If k is any integer then we can write:

Spark MLlib 特征工程系列—特征转换Polynomial Expansion

Spark MLlib 特征工程系列—特征转换Polynomial Expansion 1. Polynomial Expansion 简介 PolynomialExpansion 是 Spark MLlib 中的一种特征转换工具,主要用于将原始特征进行多项式扩展。多项式扩展通过生成原始特征的所有多项式组合来增加特征的维度,从而提高模型的表达能力。这种方法在非线性问题的建模中非常有用,因为它允

LR(Logistic Regression)算法详解

Logistic Regression本质上还是Linear Regression的一种,只是用了一个Logistic Function将线性回归的连续值映射到了 { 0 , 1 } \{0, 1\} {0,1}空间。因此Linear Regression只能对具有线性边界的分类问题有很好的预测效果,对于非线性的边界是无能为力的。至于下面这张很经典的大家常用的图,只是做了一个feature map

Linear Regression学习笔记

回归主要分为线性回归和逻辑回归。线性回归主要解决连续值预测问题,逻辑回归主要解决分类问题。但逻辑回归输出的是属于某一类的概率,因此常被用来进行排序。 1. 线性回归的原理 假定输入 χ \chi和输出 y y之间有线性相关关系,线性回归就是学习一个映射 f:χ→yf: \chi \to y 然后对于给定的样本 x x,预测其输出: y^=f(x)\hat y=f(x) 现假定 x=