Python-sklearn-LinearRegression

2024-03-05 20:04

本文主要是介绍Python-sklearn-LinearRegression,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录

1 手动实现/使用sklearn实现线性回归训练

1.1 单特征线性回归(One Feature)

1.2 多特征线性回归(Multiple Features)

1.3 多项式线性回归(Polynomial)


1 手动实现/使用sklearn实现线性回归训练

1.1 单特征线性回归(One Feature)

假设函数(One feature):

h(x^{i}) = w * x^{i} + b

损失函数(平方差损失MSE):

J(w, b) = \frac{1}{2m}\sum_{i=1}^{m}(h(x^{i}) - y^{i})^{2}

优化器(梯度下降Gradient descent):

w: = w - \alpha \frac{\partial }{\partial w}J(w, b) = w - \alpha \frac{1}{m}\sum_{i=1}^{m}[(h(x^{i}) - y^{i}) * x^{i}]

b: = b - \alpha \frac{\partial }{\partial b}J(w, b) = b - \alpha \frac{1}{m}\sum_{i=1}^{m}(h(x^{i}) - y^{i})

"""
@Title: linear_regression_with_one_feature
@Time: 2024/2/29
@Author: Michael Jie
"""import randomimport numpy as np
from sklearn.linear_model import LinearRegressionprint("--------------------手动实现LinearRegression--------------------")
# 数据集,y = 2.7 * x + 1.9
x = np.random.uniform(-3, 3, (100, 1))
y = 2.7 * x + 1.9 + np.random.normal(0, 0.5, (100, 1))
m = len(x)# 初始化训练参数
w, b = random.random(), random.random()
# 定义最小损失,学习率,最大训练轮次
epsilon, alpha, max_iter = 1e-4, 1e-2, 1e4# 训练
num = 0  # 训练轮次
j_init = 0  # 用于计算两次训练损失的差值
while True:# 假设函数,单特征线性回归h = w * x + b# 损失,平方差损失函数j = 1 / (2 * m) * np.sum((h - y) ** 2)if abs(j - j_init) < epsilon or num > max_iter:break# 优化器,梯度下降w -= alpha * (1 / m * np.sum((h - y) * x))b -= alpha * (1 / m * np.sum(h - y))num += 1j_init = jif num % 100 == 0:print("第{num}次训练,损失为:{j}".format(num=num, j=j))
print("训练后参数为:({w}, {b})".format(w=w, b=b))
# 预测
print("输入10的预测值为:{y}".format(y=w * 10 + b))print("--------------------使用sklearn实现LinearRegression--------------------")
linear = LinearRegression()
linear.fit(x, y)
print("训练后参数为:({w}, {b})".format(w=linear.coef_, b=linear.intercept_))
print("输入10的预测值为:{y}".format(y=linear.predict(np.array([[10]]))))"""
--------------------手动实现LinearRegression--------------------
第100次训练,损失为:0.24785011069810353
第200次训练,损失为:0.12133612402719189
训练后参数为:(2.6975988345352375, 1.8337117307000714)
输入10的预测值为:28.809700076052447
--------------------使用sklearn实现LinearRegression--------------------
训练后参数为:([[2.68709722]], [1.93437403])
输入10的预测值为:[[28.80534627]]
"""

1.2 多特征线性回归(Multiple Features)

假设函数(Multiple Features):

h(x) = w_{1} * x_{1} + w_{2} * x_{2} + ... + w_{n} * x_{n} + b = w^{T} * x + b

损失函数(平方差损失MSE):

J(w_{1},w_{2},...,w_{n}, b) = \frac{1}{2m}\sum_{i=1}^{m}(h(x^{i}) - y^{i})^{2}

优化器(梯度下降Gradient descent):

w_{j} := w_{j} - \alpha \frac{\partial }{\partial w_{j}}J(w, b) = w_{j} - \alpha \frac{1}{m}\sum_{i=1}^{m}[(h(x^{i}) - y^{i}) * x_{j}^{i}]

b: = b - \alpha \frac{\partial }{\partial b}J(w, b) = b - \alpha \frac{1}{m}\sum_{i=1}^{m}(h(x^{i}) - y^{i})

"""
@Title: linear_regression_with_multiple_features
@Time: 2024/2/29
@Author: Michael Jie
"""import randomimport numpy as np
from sklearn.linear_model import LinearRegressionprint("--------------------手动实现LinearRegression--------------------")
# 数据集,y = 2.1 * x1 + 1.7 * x2 + 4.4
x = np.random.uniform(-3, 3, (100, 2))
y = np.dot(x, np.array([[2.1, 1.7]]).T) + 4.4 + np.random.normal(0, 0.5, (100, 1))
m = len(x)# 初始化训练参数
w, b = [[random.random(), random.random()]], random.random()
w = np.array(w)
# 定义最小损失,学习率,最大训练轮次
epsilon, alpha, max_iter = 1e-4, 1e-3, 1e4# 训练
num = 0  # 训练轮次
j_init = 0  # 用于计算两次训练损失的差值
while True:# 假设函数,单特征线性回归h = np.dot(x, w.T) + b# 损失,平方差损失函数j = 1 / (2 * m) * np.sum((h - y) ** 2)if abs(j - j_init) < epsilon or num > max_iter:break# 优化器,梯度下降w -= alpha * (1 / m * np.sum((h - y) * x))b -= alpha * (1 / m * np.sum(h - y))num += 1j_init = jif num % 100 == 0:print("第{num}次训练,损失为:{j}".format(num=num, j=j))
print("训练后参数为:({w}, {b})".format(w=w, b=b))
# 预测
print("输入(10, 20)的预测值为:{y}".format(y=np.dot(np.array([[10, 20]]), w.T) + b))print("--------------------使用sklearn实现LinearRegression--------------------")
linear = LinearRegression()
linear.fit(x, y)
print("训练后参数为:({w}, {b})".format(w=linear.coef_, b=linear.intercept_))
print("输入(10, 20)的预测值为:{y}".format(y=linear.predict(np.array([[10, 20]]))))"""
--------------------手动实现LinearRegression--------------------
第100次训练,损失为:6.917612630867695
第200次训练,损失为:5.128139537455417
...
第2300次训练,损失为:0.2550961384480396
第2400次训练,损失为:0.2423823553289109
训练后参数为:([[1.92022977 1.85815836]], 4.258528651534591)
输入(10, 20)的预测值为:[[60.62399361]]
--------------------使用sklearn实现LinearRegression--------------------
训练后参数为:([[2.09568973 1.68056098]], [4.45455187])
输入(10, 20)的预测值为:[[59.02266883]]
"""

1.3 多项式线性回归(Polynomial)

"""
@Title: linear_regression_with_polynomial
@Time: 2024/2/29 19:41
@Author: Michael
"""import numpy as np
from sklearn.linear_model import LinearRegression
from sklearn.preprocessing import PolynomialFeatures# 数据集,y = 1.4 * x ** 2 - 3.1 * x + 2.6
x = np.random.uniform(-3, 3, (100, 1))
y = 1.4 * x ** 2 - 3.1 * x + 2.6 + np.random.normal(0, 0.5, (100, 1))# 预处理数据集,将一元二次函数转化成三元一次函数,然后使用线性回归训练
poly = PolynomialFeatures(degree=2)
poly.fit(x)
x = poly.transform(x)
# 手动实现预处理
degree = np.array([[0, 1, 2]])
# x = x ** degree# 回归训练
linear = LinearRegression()
linear.fit(x, y)
print("训练后参数为:({w}, {b})".format(w=linear.coef_, b=linear.intercept_))
print("输入10的预测值为:{y}".format(y=linear.predict(np.array([[1, 10, 100]]))))"""
训练后参数为:([[ 0.         -3.1180901   1.40622675]], [2.62986504])
输入10的预测值为:[[112.07163862]]
"""

这篇关于Python-sklearn-LinearRegression的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/777652

相关文章

python: 多模块(.py)中全局变量的导入

文章目录 global关键字可变类型和不可变类型数据的内存地址单模块(单个py文件)的全局变量示例总结 多模块(多个py文件)的全局变量from x import x导入全局变量示例 import x导入全局变量示例 总结 global关键字 global 的作用范围是模块(.py)级别: 当你在一个模块(文件)中使用 global 声明变量时,这个变量只在该模块的全局命名空

【Python编程】Linux创建虚拟环境并配置与notebook相连接

1.创建 使用 venv 创建虚拟环境。例如,在当前目录下创建一个名为 myenv 的虚拟环境: python3 -m venv myenv 2.激活 激活虚拟环境使其成为当前终端会话的活动环境。运行: source myenv/bin/activate 3.与notebook连接 在虚拟环境中,使用 pip 安装 Jupyter 和 ipykernel: pip instal

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

nudepy,一个有趣的 Python 库!

更多资料获取 📚 个人网站:ipengtao.com 大家好,今天为大家分享一个有趣的 Python 库 - nudepy。 Github地址:https://github.com/hhatto/nude.py 在图像处理和计算机视觉应用中,检测图像中的不适当内容(例如裸露图像)是一个重要的任务。nudepy 是一个基于 Python 的库,专门用于检测图像中的不适当内容。该

pip-tools:打造可重复、可控的 Python 开发环境,解决依赖关系,让代码更稳定

在 Python 开发中,管理依赖关系是一项繁琐且容易出错的任务。手动更新依赖版本、处理冲突、确保一致性等等,都可能让开发者感到头疼。而 pip-tools 为开发者提供了一套稳定可靠的解决方案。 什么是 pip-tools? pip-tools 是一组命令行工具,旨在简化 Python 依赖关系的管理,确保项目环境的稳定性和可重复性。它主要包含两个核心工具:pip-compile 和 pip

HTML提交表单给python

python 代码 from flask import Flask, request, render_template, redirect, url_forapp = Flask(__name__)@app.route('/')def form():# 渲染表单页面return render_template('./index.html')@app.route('/submit_form',

Python QT实现A-star寻路算法

目录 1、界面使用方法 2、注意事项 3、补充说明 用Qt5搭建一个图形化测试寻路算法的测试环境。 1、界面使用方法 设定起点: 鼠标左键双击,设定红色的起点。左键双击设定起点,用红色标记。 设定终点: 鼠标右键双击,设定蓝色的终点。右键双击设定终点,用蓝色标记。 设置障碍点: 鼠标左键或者右键按着不放,拖动可以设置黑色的障碍点。按住左键或右键并拖动,设置一系列黑色障碍点

Python:豆瓣电影商业数据分析-爬取全数据【附带爬虫豆瓣,数据处理过程,数据分析,可视化,以及完整PPT报告】

**爬取豆瓣电影信息,分析近年电影行业的发展情况** 本文是完整的数据分析展现,代码有完整版,包含豆瓣电影爬取的具体方式【附带爬虫豆瓣,数据处理过程,数据分析,可视化,以及完整PPT报告】   最近MBA在学习《商业数据分析》,大实训作业给了数据要进行数据分析,所以先拿豆瓣电影练练手,网络上爬取豆瓣电影TOP250较多,但对于豆瓣电影全数据的爬取教程很少,所以我自己做一版。 目

【Python报错已解决】AttributeError: ‘list‘ object has no attribute ‘text‘

🎬 鸽芷咕:个人主页  🔥 个人专栏: 《C++干货基地》《粉丝福利》 ⛺️生活的理想,就是为了理想的生活! 文章目录 前言一、问题描述1.1 报错示例1.2 报错分析1.3 解决思路 二、解决方法2.1 方法一:检查属性名2.2 步骤二:访问列表元素的属性 三、其他解决方法四、总结 前言 在Python编程中,属性错误(At