【机器学习】逻辑斯谛回归模型实现

2023-10-31 08:30

本文主要是介绍【机器学习】逻辑斯谛回归模型实现,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 数据准备
  • 逻辑斯谛回归模型
  • 模型参数估计
  • 总结
  • 参考


数据准备

本文实现的是二项逻辑斯谛回归模型,因此使用的是处理过后的两类别数据 mnist_binary.csv,表中对原手写数据中0~4取作负类 -1,将5~9取作正类 +1。

另根据逻辑斯谛回归模型按条件概率分布定义:
P ( Y = 1 ∣ x ) = e x p ( w ⋅ x ) 1 + e x p ( w ⋅ x ) P(Y=1|x)=\frac{exp(w\cdot x)}{1 + exp(w\cdot x)} P(Y=1∣x)=1+exp(wx)exp(wx)
P ( Y = 0 ∣ x ) = 1 1 + e x p ( w ⋅ x ) P(Y=0|x)=\frac{1}{1 + exp(w\cdot x)} P(Y=0∣x)=1+exp(wx)1

Y的取值应为0,1,因此需要将表中的-1类转换为0后再进行训练;此外由于要计算指数函数,特征取值过多会导致指数函数计算过程中的溢出,因此还需要将图像数据进行二值化操作。此部分直接在代码中完成,就不生成相应的数据集了。


逻辑斯谛回归模型

上面提到的逻辑斯谛回归模型的条件概率分布定义,可以看作是模型将线性函数 w ⋅ x w\cdot x wx通过其定义式转换为概率表现形式:
P ( Y = 1 ∣ x ) = e x p ( w ⋅ x ) 1 + e x p ( w ⋅ x ) P(Y=1|x)=\frac{exp(w\cdot x)}{1 + exp(w\cdot x)} P(Y=1∣x)=1+exp(wx)exp(wx)

上式中表示事情发生的概率,在线性函数趋近于无穷大时,概率值越接近于1;线性函数趋近于负无穷时,概率值就接近于0;函数图像如下所示,模型的临界点在线性函数为零时,条件概率值为0.5。
逻辑斯谛

逻辑斯谛回归模型也可以推广至多分类,见总结部分。


模型参数估计

设上述逻辑斯谛回归模型可改写为如下格式:

P ( Y = 1 ∣ x ) = π ( x ) , P ( Y = 0 ∣ x ) = 1 − π ( x ) P(Y=1|x)=\pi(x),P(Y=0|x)=1-\pi(x) P(Y=1∣x)=π(x)P(Y=0∣x)=1π(x)

其似然函数为:

∏ i = 1 N [ π ( x i ) ] y i [ 1 − π ( x i ) ] 1 − y i \prod_{i=1}^{N}[\pi(x_i)]^{y_i}[1-\pi(x_i)]^{1-y_i} i=1N[π(xi)]yi[1π(xi)]1yi

对数似然函数:
L ( w ) = ∑ i = 1 N [ y i l o g π ( x i ) + ( 1 − y i ) l o g ( 1 − π ( x i ) ) ] = ∑ i = 1 N [ y i l o g π ( x i ) 1 − π ( x i ) + l o g ( 1 − π ( x i ) ) ] = ∑ i = 1 N [ y i ( w ⋅ x i ) − l o g ( 1 + e x p ( w ⋅ x i ) ) ] = y i ( w ⋅ x ) − l o g ( 1 + e x p ( w ⋅ x ) ) \begin{aligned} L(w) &= \sum_{i=1}^N[y_ilog\pi(x_i) + (1 - y_i)log(1 - \pi(x_i))] \\ &=\sum_{i=1}^N[y_ilog\frac{\pi(x_i)}{1 - \pi(x_i)} + log(1 - \pi(x_i))] \\ &=\sum_{i=1}^N[y_i(w\cdot x_i) - log(1 + exp(w\cdot x_i))] \\ &=y_i(w\cdot x) - log(1+exp(w\cdot x)) \end{aligned} L(w)=i=1N[yilogπ(xi)+(1yi)log(1π(xi))]=i=1N[yilog1π(xi)π(xi)+log(1π(xi))]=i=1N[yi(wxi)log(1+exp(wxi))]=yi(wx)log(1+exp(wx))

利用随机梯度下降方法优化算法,以向量形式对权重进行求导:
∂ L ( w ) ∂ w = y i x − x ⋅ e x p ( w ⋅ x ) 1 + e x p ( w ⋅ x ) = x [ y i − e x p ( w ⋅ x ) 1 + e x p ( w ⋅ x ) ] \begin{aligned} \frac{\partial L(w)}{\partial w} &= y_ix - \frac{x\cdot exp(w\cdot x)}{1+exp(w\cdot x)} \\ &=x[y_i - \frac{exp(w\cdot x)}{1 + exp(w\cdot x)}] \end{aligned} wL(w)=yix1+exp(wx)xexp(wx)=x[yi1+exp(wx)exp(wx)]

每次迭代过程中更新权重参数:

w = w + α ∂ L ( w ) ∂ w w = w + \alpha\frac{\partial L(w)}{\partial w} w=w+αwL(w)


根据上述算法步骤,可以发现基于随机梯度下降法的二项逻辑斯谛回归和基于梯度下降法的感知机模型学习算法流程基本一致,区别在于参数步骤的更新方式。另外在判别过程中:感知机采用符号函数Sgin,逻辑斯谛回归采用逻辑斯谛分布Sigmoid进行计算,可参考感知机模型学习原始算法。

具体实现代码如下:

# @Author: phd
# @Date: 2019-08-18
# @Site: github.com/phdsky
# @Description: NULLimport time
import logging
import numpy as np
import pandas as pdfrom sklearn.model_selection import train_test_split
from sklearn.preprocessing import Binarizerdef log(func):def wrapper(*args, **kwargs):start_time = time.time()ret = func(*args, **kwargs)end_time = time.time()logging.debug('%s() cost %s seconds' % (func.__name__, end_time - start_time))return retreturn wrapperdef calc_accuracy(y_pred, y_truth):assert len(y_pred) == len(y_truth)n = len(y_pred)hit_count = 0for i in range(0, n):if y_pred[i] == y_truth[i]:hit_count += 1print("Predicting accuracy %f" % (hit_count / n))class LogisticRegression(object):def __init__(self, w, b, learning_rate, max_epoch, learning_period, learning_ratio):self.weight = wself.bias = bself.lr_rate = learning_rateself.max_epoch = max_epochself.lr_period = learning_periodself.lr_ratio = learning_ratiodef calculate(self, feature):# wx = sum([self.weight[j] * feature[j] for j in range(len(self.weight))])wx = np.dot(self.weight.transpose(), feature)exp_wx = np.exp(wx)predicted = 0 if (1 / (1 + exp_wx)) > 0.5 else 1return predicted, exp_wx@logdef train(self, X_train, y_train):# Fuse weight with biasself.weight = np.full((len(X_train[0]), 1), self.weight, dtype=float)self.weight = np.row_stack((self.weight, self.bias))epoch = 0while epoch < self.max_epoch:hit_count = 0data_count = len(X_train)for i in range(data_count):feature = X_train[i].reshape([len(X_train[i]), 1])feature = np.row_stack((feature, 1))label = y_train[i]predicted, exp_wx = self.calculate(feature)if predicted == label:hit_count += 1continue# for k in range(len(self.weight)):#     self.weight[k] += self.lr_rate * (label*feature[k] - ((feature[k] * exp_wx) / (1 + exp_wx)))self.weight += self.lr_rate * feature * (label - (exp_wx / (1 + exp_wx)))epoch += 1print("\rEpoch %d, lr_rate=%f, Acc = %f" % (epoch, self.lr_rate, hit_count / data_count), end='')# Decay learning rateif epoch % self.lr_period == 0:self.lr_rate /= self.lr_ratio# Stop trainingif self.lr_rate <= 1e-6:print("\nLearning rate is too low, Early stopping...\n")break@logdef predict(self, X_test):n = len(X_test)predict_label = np.full(n, -1)for i in range(0, n):to_predict = X_test[i].reshape([len(X_test[i]), 1])vec_predict = np.row_stack((to_predict, 1))predict_label[i], _ = self.calculate(vec_predict)return predict_labelif __name__ == "__main__":logger = logging.getLogger()logger.setLevel(logging.DEBUG)mnist_data = pd.read_csv("../data/mnist_binary.csv")mnist_values = mnist_data.valuesimages = mnist_values[::, 1::]labels = mnist_values[::, 0]X_train, X_test, y_train, y_test = train_test_split(images, labels, test_size=0.33, random_state=42)# Handle all -1 in y_train to 0y_train = y_train * (y_train == 1)y_test = y_test * (y_test == 1)# Binary the image to avoid predict_probability gets 0binarizer_train = Binarizer(threshold=127).fit(X_train)X_train_binary = binarizer_train.transform(X_train)binarizer_test = Binarizer(threshold=127).fit(X_test)X_test_binary = binarizer_test.transform(X_test)lr = LogisticRegression(w=0, b=1, learning_rate=0.001, max_epoch=100,learning_period=10, learning_ratio=3)print("Logistic regression training...")lr.train(X_train=X_train_binary, y_train=y_train)print("\nTraining done...")print("Testing on %d samples..." % len(X_test))y_predicted = lr.predict(X_test=X_test_binary)calc_accuracy(y_pred=y_predicted, y_truth=y_test)

代码输出

/Users/phd/Softwares/anaconda3/bin/python /Users/phd/Desktop/ML/logistic_regression/logistic_regression.py
Logistic regression training...
Epoch 70, lr_rate=0.000001, Acc = 0.818479
Learning rate is too low, Early stopping...Training done...
Testing on 13860 samples...
DEBUG:root:train() cost 38.08758902549744 seconds
Predicting accuracy 0.831097
DEBUG:root:predict() cost 0.2131938934326172 secondsProcess finished with exit code 0

从结果可以看出,在图像二值化后逻辑斯谛算法的训练和测试精度都在80%+,算法效果较好;预测结果优于直接使用原始数据的感知机模型。


总结

  1. 逻辑斯谛回归模型是一种分类模型
  2. 逻辑斯谛回归是由输入线性函数表示的输出对数几率模型;其模型定义由如下条件概率分布表示:(将二项推广为多项模型)

{ P ( Y = k ∣ x ) = e x p ( w k ⋅ x ) 1 + ∑ k = 1 K − 1 e x p ( w k ⋅ x ) , k = 1 , 2 , . . . , K − 1 P ( Y = K ∣ x ) = 1 1 + ∑ k = 1 K − 1 e x p ( w k ⋅ x ) \left\{ \begin{aligned} P(Y=k|x) &= \frac{exp(w_k\cdot x)}{1 + \sum\limits_{k=1}^{K-1}exp(w_k\cdot x)}, k=1,2,...,K-1 \\ P(Y=K|x) &= \frac{1}{1 + \sum\limits_{k=1}^{K-1}exp(w_k\cdot x)} \end{aligned} \right. P(Y=kx)P(Y=Kx)=1+k=1K1exp(wkx)exp(wkx),k=1,2,...,K1=1+k=1K1exp(wkx)1


参考

  1. 《统计学习方法》

这篇关于【机器学习】逻辑斯谛回归模型实现的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/314073

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

hdu1043(八数码问题,广搜 + hash(实现状态压缩) )

利用康拓展开将一个排列映射成一个自然数,然后就变成了普通的广搜题。 #include<iostream>#include<algorithm>#include<string>#include<stack>#include<queue>#include<map>#include<stdio.h>#include<stdlib.h>#include<ctype.h>#inclu

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

让树莓派智能语音助手实现定时提醒功能

最初的时候是想直接在rasa 的chatbot上实现,因为rasa本身是带有remindschedule模块的。不过经过一番折腾后,忽然发现,chatbot上实现的定时,语音助手不一定会有响应。因为,我目前语音助手的代码设置了长时间无应答会结束对话,这样一来,chatbot定时提醒的触发就不会被语音助手获悉。那怎么让语音助手也具有定时提醒功能呢? 我最后选择的方法是用threading.Time