基于相关向量机RVM的回归预测算法

2024-06-18 07:18

本文主要是介绍基于相关向量机RVM的回归预测算法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

基于相关向量机RVM的回归预测算法

文章目录

  • 基于相关向量机RVM的回归预测算法
    • 1.RVM原理
    • 2.算法实验与结果
    • 3.参考文献:
    • 4.MATLAB代码

摘要:本文主要介绍相关向量机RVM的基本原理,以及在预测问题中的应用。

1.RVM原理

RVM算法是一种基于贝叶斯框架的机器学习模型 ,通过最大化边际似然得到相关向量和权重。

{ x } u = 1 N \{x\}_{u=1}^N {x}u=1N​和 { t } u = 1 N \{t\}_{u=1}^N {t}u=1N​分别是输入向量和输出向量,目标 t t t​可采用如式(1)所示的回归模型获得:
t = y ( x ) + ξ n (1) t =y(x)+\xi_n \tag{1} t=y(x)+ξn(1)
式中: ξ n \xi_n ξn为零均值、方差 σ 2 σ^2 σ2的噪声, y ( x ) y(x) y(x) 定义为:
y ( x ) = ∑ u = 1 N w u K ( x , x u ) + w 0 (2) y(x)=\sum_{u=1}^Nw_uK(x,x_u)+w_0 \tag{2} y(x)=u=1NwuK(x,xu)+w0(2)
式中: K ( x , x u ) K(x,x_u) K(x,xu) 是核函数, w u w_u wu 是权重向量, w 0 w_0 w0是偏差。设 t t t​是独立的,其概率定义为:
p ( t ∣ w , σ 2 ) = ( 2 π σ 2 ) − N / 2 e x p ( − ∣ ∣ t − w φ ∣ ∣ 2 2 σ 2 ) (3) p(t|w,\sigma^2)=(2\pi\sigma^2)^{-N/2}exp(-\frac{||t-w\varphi||^2}{2\sigma^2})\tag{3} p(tw,σ2)=(2πσ2)N/2exp(2σ2twφ2)(3)
式中: t = ( t 1 , t 2 , . . . , t N ) T , w = ( w 0 , w 1 , . . . , w n ) T t=(t_1,t_2,...,t_N)^T,w=(w_0,w_1,...,w_n)^T t=(t1,t2,...,tN)T,w=(w0,w1,...,wn)T, φ \varphi φ N ( N + 1 ) N(N+1) N(N+1)​的矩阵。

式(3)中的 w w w σ σ σ最大似然估计会导致过拟合,为约束参数,定义一个零均值高斯先验概率分布:
p ( w ∣ α ) = ∏ u = 0 N N ( w u ∣ 0 , α u − 1 ) (4) p(w|\alpha)=\prod_{u=0}^NN(w_u|0,\alpha_u^{-1})\tag{4} p(wα)=u=0NN(wu0,αu1)(4)
式中: α α α N + 1 N +1 N+1 维的超参数向量。

依据贝叶斯公式,未知参数的后验概率为:
p ( w , α , σ 2 ∣ t ) = p ( w ∣ α , σ 2 , t ) p ( α , σ 2 ∣ t ) (5) p(w,\alpha,\sigma^2|t)=p(w|\alpha,\sigma^2,t)p(\alpha,\sigma^2|t)\tag{5} p(w,α,σ2t)=p(wα,σ2,t)p(α,σ2t)(5)
后验分布的权重被描述为:
p ( w ∣ t , α , σ 2 ) = ( 2 π ) − ( N + 1 ) / 2 ∣ Σ ∣ − 1 / N e x p ( − 1 2 ( w − u ) T Σ − 1 ( w − u ) ) (6) p(w|t,\alpha,\sigma^2)=(2\pi)^{-(N+1)/2}|\Sigma|^{-1/N}exp(-\frac{1}{2}(w-u)^T\Sigma ^{-1}(w-u))\tag{6} p(wt,α,σ2)=(2π)(N+1)/2Σ1/Nexp(21(wu)TΣ1(wu))(6)
式中:后验均值 u = σ − 2 Σ φ T t u=\sigma^{-2}\Sigma\varphi^Tt u=σ2ΣφTt,协方差 Σ = ( σ − 2 φ T φ + A ) − 1 \Sigma=(\sigma^{-2}\varphi^T\varphi+A)^{-1} Σ=(σ2φTφ+A)1, A = d i a g ( α 0 , α 1 , . . . , α N ) A=diag(\alpha_0,\alpha_1,...,\alpha_N) A=diag(α0,α1,...,αN)​。

为了实现统一的超参数,​做出如下定义:
p ( t ∣ α , σ 2 ) = ∫ p ( t ∣ w , σ 2 ) p ( w , α ) d w = ( 2 π ) − N / 2 ∣ σ 2 I + φ A − 1 φ T ∣ e x p ( − 1 2 t T ( σ 2 I + φ A − 1 φ T ) − 1 t ) (7) p(t|\alpha,\sigma^2)=\int p(t|w,\sigma^2)p(w,\alpha)dw =(2\pi)^{-N/2}|\sigma^2I+\varphi A^{-1}\varphi^T|exp(-\frac{1}{2}t^T(\sigma^2I + \varphi A^{-1}\varphi^T)^{-1}t)\tag{7} p(tα,σ2)=p(tw,σ2)p(w,α)dw=(2π)N/2σ2I+φA1φTexp(21tT(σ2I+φA1φT)1t)(7)
高斯径向基函数具有较强的非线性处理能力,被用作核函数,其定义如下:
K ( x , x u ) = e x p ( − ( x − x u ) 2 2 γ 2 ) (7) K(x,x_u)=exp(-\frac{(x-x_u)^2}{2\gamma^2})\tag{7} K(x,xu)=exp(2γ2(xxu)2)(7)
式中: γ γ γ 为宽度因子,对模型的精度有极大的影响,需要预先设定。

2.算法实验与结果

本文算法数据数量一共为250组数据。其中前200组数据用训练,后50组数据用作测试数据。数据的输入维度为2维,输出维度为1维。

数据类别数据量
训练数据200
测试数据50

设置RVM的核函数为高斯径向基函数,核宽度为3。得到的结果如下图所示:

请添加图片描述
请添加图片描述

训练集MSE:0.0010558
测试集MSE:0.0016036

从结果曲线,和训练集MSE以及测试集MSE来看,RVM在回归预测问题上表现了较好的结果。

3.参考文献:

[1] TIPPPING M E. Sparse Bayesian learning and the relevance vector machine[J]. The journal of machine learning research,2001,1: 211-244.

4.MATLAB代码

在这里插入图片描述

这篇关于基于相关向量机RVM的回归预测算法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1071634

相关文章

不懂推荐算法也能设计推荐系统

本文以商业化应用推荐为例,告诉我们不懂推荐算法的产品,也能从产品侧出发, 设计出一款不错的推荐系统。 相信很多新手产品,看到算法二字,多是懵圈的。 什么排序算法、最短路径等都是相对传统的算法(注:传统是指科班出身的产品都会接触过)。但对于推荐算法,多数产品对着网上搜到的资源,都会无从下手。特别当某些推荐算法 和 “AI”扯上关系后,更是加大了理解的难度。 但,不了解推荐算法,就无法做推荐系

康拓展开(hash算法中会用到)

康拓展开是一个全排列到一个自然数的双射(也就是某个全排列与某个自然数一一对应) 公式: X=a[n]*(n-1)!+a[n-1]*(n-2)!+...+a[i]*(i-1)!+...+a[1]*0! 其中,a[i]为整数,并且0<=a[i]<i,1<=i<=n。(a[i]在不同应用中的含义不同); 典型应用: 计算当前排列在所有由小到大全排列中的顺序,也就是说求当前排列是第

csu 1446 Problem J Modified LCS (扩展欧几里得算法的简单应用)

这是一道扩展欧几里得算法的简单应用题,这题是在湖南多校训练赛中队友ac的一道题,在比赛之后请教了队友,然后自己把它a掉 这也是自己独自做扩展欧几里得算法的题目 题意:把题意转变下就变成了:求d1*x - d2*y = f2 - f1的解,很明显用exgcd来解 下面介绍一下exgcd的一些知识点:求ax + by = c的解 一、首先求ax + by = gcd(a,b)的解 这个

综合安防管理平台LntonAIServer视频监控汇聚抖动检测算法优势

LntonAIServer视频质量诊断功能中的抖动检测是一个专门针对视频稳定性进行分析的功能。抖动通常是指视频帧之间的不必要运动,这种运动可能是由于摄像机的移动、传输中的错误或编解码问题导致的。抖动检测对于确保视频内容的平滑性和观看体验至关重要。 优势 1. 提高图像质量 - 清晰度提升:减少抖动,提高图像的清晰度和细节表现力,使得监控画面更加真实可信。 - 细节增强:在低光条件下,抖

sqlite3 相关知识

WAL 模式 VS 回滚模式 特性WAL 模式回滚模式(Rollback Journal)定义使用写前日志来记录变更。使用回滚日志来记录事务的所有修改。特点更高的并发性和性能;支持多读者和单写者。支持安全的事务回滚,但并发性较低。性能写入性能更好,尤其是读多写少的场景。写操作会造成较大的性能开销,尤其是在事务开始时。写入流程数据首先写入 WAL 文件,然后才从 WAL 刷新到主数据库。数据在开始

【数据结构】——原来排序算法搞懂这些就行,轻松拿捏

前言:快速排序的实现最重要的是找基准值,下面让我们来了解如何实现找基准值 基准值的注释:在快排的过程中,每一次我们要取一个元素作为枢纽值,以这个数字来将序列划分为两部分。 在此我们采用三数取中法,也就是取左端、中间、右端三个数,然后进行排序,将中间数作为枢纽值。 快速排序实现主框架: //快速排序 void QuickSort(int* arr, int left, int rig

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

poj 3974 and hdu 3068 最长回文串的O(n)解法(Manacher算法)

求一段字符串中的最长回文串。 因为数据量比较大,用原来的O(n^2)会爆。 小白上的O(n^2)解法代码:TLE啦~ #include<stdio.h>#include<string.h>const int Maxn = 1000000;char s[Maxn];int main(){char e[] = {"END"};while(scanf("%s", s) != EO

秋招最新大模型算法面试,熬夜都要肝完它

💥大家在面试大模型LLM这个板块的时候,不知道面试完会不会复盘、总结,做笔记的习惯,这份大模型算法岗面试八股笔记也帮助不少人拿到过offer ✨对于面试大模型算法工程师会有一定的帮助,都附有完整答案,熬夜也要看完,祝大家一臂之力 这份《大模型算法工程师面试题》已经上传CSDN,还有完整版的大模型 AI 学习资料,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

dp算法练习题【8】

不同二叉搜索树 96. 不同的二叉搜索树 给你一个整数 n ,求恰由 n 个节点组成且节点值从 1 到 n 互不相同的 二叉搜索树 有多少种?返回满足题意的二叉搜索树的种数。 示例 1: 输入:n = 3输出:5 示例 2: 输入:n = 1输出:1 class Solution {public int numTrees(int n) {int[] dp = new int