2023年第四届MathorCup大数据竞赛(A题)|坑洼道路检测和识别|数学建模完整代码+建模过程全解全析

本文主要是介绍2023年第四届MathorCup大数据竞赛(A题)|坑洼道路检测和识别|数学建模完整代码+建模过程全解全析,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

当大家面临着复杂的数学建模问题时,你是否曾经感到茫然无措?作为2021年美国大学生数学建模比赛的O奖得主,我为大家提供了一套优秀的解题思路,让你轻松应对各种难题。

希望这些想法对大家的做题有一定的启发和借鉴意义。
让我们来看看MathorCup的A题!
在这里插入图片描述

问题重述:

问题1:图像特征提取和模型建立

题目要求建立一个高识别准确度、快速的模型,能够识别道路图像是正常的还是坑洼的。具体步骤包括:

  1. 解压data.zip,准备训练数据。
  2. 对图像进行预处理,如调整尺寸和数据增强。
  3. 使用深度学习模型提取图像特征。
  4. 构建一个分类模型,将特征转化为更容易分类的表示形式。
  5. 使用训练数据训练模型。

问题2:模型评估

题目要求对模型进行评估,从不同维度考察其性能。评估指标可能包括准确率、召回率、精确度、F1分数等,以及绘制ROC曲线和AUC。

问题3:测试集识别
题目求使用已经训练好的模型对未标记的测试数据集(在竞赛结束前48小时公布下载链接)中的图像进行坑洼识别。将识别结果以特定格式填写到test result.csv中,并将该文件提交以供评估。

问题一

问题一的具体建模思路通常基于深度学习方法,在这里我们使用卷积神经网络(CNN)。

  1. 数据准备

    • 将数据集划分为训练集和验证集,以用于模型训练和评估。
  2. 图像预处理

    • 调整图像大小为固定尺寸,如 224 × 224 224\times224 224×224
    • 数据增强:对训练图像进行数据增强,包括旋转、翻转、缩放和亮度调整等。
  3. 特征提取

    • 使用一个预训练的卷积神经网络(如ResNet、VGG、或MobileNet)来提取图像特征。这些模型通常包含卷积层,用于捕获图像的特征。
    • 在模型的前几层,特征图会被提取出来。
  4. 模型构建

    • 添加一个或多个全连接层,用于将提取的特征转换为最终的分类输出。
    • 使用sigmoid激活函数来输出一个0到1的值,表示道路是否坑洼。

模型的建立可以表示为以下公式:

给定一个输入图像 x x x,表示为一个 W × H × C W\times H\times C W×H×C的三维张量,其中 W W W H H H是图像的宽度和高度, C C C是通道数。卷积神经网络(CNN)将图像 x x x映射到一个输出标量 y y y,表示道路是否坑洼的概率。这个映射可以表示为:

y = σ ( f ( x ) ) y = \sigma(f(x)) y=σ(f(x))

其中:

  • f ( x ) f(x) f(x)表示卷积神经网络的前向传播过程,包括卷积、池化和全连接等层的组合,用于提取图像特征。
  • σ ( z ) = 1 1 + e − z \sigma(z) = \frac{1}{1 + e^{-z}} σ(z)=1+ez1 是sigmoid激活函数,将 z z z映射到0到1的范围内,表示概率。

模型的训练可以使用二元交叉熵(binary cross-entropy)损失函数来度量预测概率与实际标签之间的差异:

L ( y , y ^ ) = − ( y log ⁡ ( y ^ ) + ( 1 − y ) log ⁡ ( 1 − y ^ ) ) \mathcal{L}(y, \hat{y}) = -\left(y\log(\hat{y}) + (1 - y)\log(1 - \hat{y})\right) L(y,y^)=(ylog(y^)+(1y)log(1y^))

其中:

  • y y y 是实际标签(0表示坑洼,1表示正常道路)。
  • y ^ \hat{y} y^ 是模型的预测概率。

训练模型的目标是最小化损失函数 L \mathcal{L} L,以使预测尽可能接近实际标签。

二元交叉熵(Binary Cross-Entropy)是一种用于衡量二分类问题中模型预测与实际标签之间的差异的损失函数。它通常用于训练和评估二分类模型,例如判断一个样本属于两个类别中的哪一个。

这个损失函数的度量原理基于信息论的概念,特别是信息熵。以下是它的度量原理:

假设我们有一个二分类问题,其中样本的实际标签为 y y y,可以取0或1,而模型的预测概率为 y ^ \hat{y} y^,表示样本属于类别1的概率。

交叉熵损失的度量原理基于以下两种情况:

  1. 当实际标签 y = 1 y=1 y=1时,交叉熵损失为:

    − log ⁡ ( y ^ ) -\log(\hat{y}) log(y^)

    这表示模型预测样本属于类别1的概率越高,损失越小,反之则损失越大。这是因为实际标签为1时,我们希望模型的预测也接近1。

  2. 当实际标签 y = 0 y=0 y=0时,交叉熵损失为:

    − log ⁡ ( 1 − y ^ ) -\log(1 - \hat{y}) log(1y^)

    这表示模型预测样本属于类别0的概率越高,损失越小,反之则损失越大。这是因为实际标签为0时,我们希望模型的预测也接近0。

在训练过程中,我们会将所有样本的交叉熵损失加权求和,然后尝试最小化这个总损失。这意味着模型的目标是使其对于所有样本的预测与实际标签更加一致,以最小化总的交叉熵损失。

总的二元交叉熵损失可以表示为:

L ( y ^ , y ) = − ( y log ⁡ ( y ^ ) + ( 1 − y ) log ⁡ ( 1 − y ^ ) ) \mathcal{L}(\hat{y}, y) = -\left(y\log(\hat{y}) + (1 - y)\log(1 - \hat{y})\right) L(y^,y)=(ylog(y^)+(1y)log(1y^))

其中, L ( y ^ , y ) \mathcal{L}(\hat{y}, y) L(y^,y)表示损失, y ^ \hat{y} y^表示模型的预测概率, y y y表示实际标签。最小化这个损失将使模型尽量接近实际标签的分布,以更好地进行二分类任务。

代码:

import tensorflow as tf
from tensorflow import keras
from sklearn.model_selection import train_test_split
import numpy as np
import pandas as pd# 加载和预处理数据
def load_and_preprocess_data():# 你需要编写加载和预处理数据的代码,返回X和y# X是图像数据,y是标签(0表示坑洼,1表示正常道路)# 这里使用一个假设的示例,你需要根据实际数据进行适配X = np.random.rand(301, 224, 224, 3)  # 示例随机生成图像数据y = np.random.randint(2, size=301)  # 示例随机生成标签return {'images': X, 'labels': y}# 构建深度学习模型
def build_model():model = keras.Sequential([keras.layers.Conv2D(32, (3, 3), activation='relu', input_shape=(224, 224, 3)),keras.layers.MaxPooling2D((2, 2)),keras.layers.Conv2D(64, (3, 3), activation='relu'),keras.layers.MaxPooling2D((2, 2)),keras.layers.Flatten(),keras.layers.Dense(128, activation='relu'),keras.layers.Dense(1, activation='sigmoid')])model.compile(optimizer='adam',loss='binary_crossentropy',  # 二元交叉熵损失metrics=['accuracy'])return model# 模型训练
def train_model(X_train, y_train, X_val, y_val):model = build_model()#见完整版代码

题目二

问题二的建模思路需要分为两个主要部分:模型训练和模型评估。

模型训练

  1. 数据加载与划分:首先,加载问题一中准备好的训练数据。将数据集划分为训练集( X train X_{\text{train}} Xtrain y train y_{\text{train}} ytrain)和验证集( X val X_{\text{val}} Xval y val y_{\text{val}} yval),通常采用交叉验证方法,以确保模型在不同数据子集上进行训练和评估。

  2. 模型选择:选择问题一中构建的深度学习模型,该模型已包含合适的网络结构和损失函数(二元交叉熵),用于道路坑洼的分类任务。

  3. 模型训练:使用训练集进行模型训练。迭代多个周期(epochs),使模型能够适应数据。训练过程中,模型会自动调整权重,以最小化损失函数。

  4. 超参数调优:根据需要,进行超参数调优,包括学习率、批处理大小等。这可以通过验证集上的性能来指导。你可以使用交叉验证技术来尝试不同的超参数组合。

  • 数据加载与划分:

X train , y train , X val , y val = train_test_split ( X , y , test_size = 0.2 , random_state = 42 ) X_{\text{train}}, y_{\text{train}}, X_{\text{val}}, y_{\text{val}}=\text{train\_test\_split}(X, y, \text{test\_size}=0.2,\text{random\_state}=42) Xtrain,ytrain,Xval,yval=train_test_split(X,y,test_size=0.2,random_state=42)

  • 模型选择:
    model = build_model ( ) \text{model} = \text{build\_model}() model=build_model()

  • 模型训练:

    model.fit ( X train , y train , epochs = 10 , validation_data = ( X val , y val ) \text{model.fit}(X_{\text{train}}, y_{\text{train}}, \text{epochs}=10, \text{validation\_data}=(X_{\text{val}}, y_{\text{val}}) model.fit(Xtrain,ytrain,epochs=10,validation_data=(Xval,yval)

模型评估

使用ROC曲线和AUC(Area Under the Curve)来评估模型的性能是一种常见的方法,特别适用于二分类问题。ROC曲线是一种用于可视化分类模型性能的工具,而AUC是ROC曲线下的面积,用于定量评估模型的性能。

1. 计算模型的ROC曲线

在评估模型之前,你需要使用验证集上的真正例率(True Positive Rate,召回率)和假正例率(False Positive Rate)来构建ROC曲线。这可以通过不同的分类阈值来实现。以下是ROC曲线的构建过程:

  • 为了计算ROC曲线,首先使用模型对验证集进行预测,获取每个样本的预测概率。

  • 使用不同的分类阈值(通常是0到1之间的值),将样本分为正类和负类。根据不同阈值,计算真正例率(TPR)和假正例率(FPR)。

  • 绘制TPR和FPR的曲线,即ROC曲线。

2. 计算AUC值

AUC(ROC曲线下的面积)用于量化ROC曲线的性能。AUC的值通常在0.5和1之间,越接近1表示模型性能越好。

  • 计算ROC曲线下的面积(AUC)。通常,你可以使用数值积分方法或库函数来计算AUC的值。

3. 评估模型

根据ROC曲线和AUC值进行模型评估。

  • AUC接近1表示模型具有良好的性能,可以很好地区分正类和负类样本。

  • ROC曲线越接近左上角(0,1),表示模型性能越好。

  • 如果AUC接近0.5,模型性能可能很差,类似于随机猜测。

  • 比较不同模型的AUC值,选择具有较高AUC值的模型。

  • 根据任务需求,可以根据不同的阈值来调整模型,以在召回率和精确度之间取得平衡。

import tensorflow as tf
from tensorflow import keras
from sklearn.model_selection import train_test_split
from sklearn.metrics import roc_curve, auc
import matplotlib.pyplot as plt# 加载和预处理数据(与问题一相同)
def load_and_preprocess_data():# 你需要编写加载和预处理数据的代码,返回X和y# X是图像数据,y是标签(0表示坑洼,1表示正常道路)# 这里使用一个假设的示例,你需要根据实际数据进行适配X = np.random.rand(301, 224, 224, 3)  # 示例随机生成图像数据y = np.random.randint(2, size=301)  # 示例随机生成标签return {'images': X, 'labels': y}# 构建深度学习模型(与问题一相同)
def build_model():model = keras.Sequential([# 模型结构,与问题一相同])model.compile(optimizer='adam',loss='binary_crossentropy',  # 二元交叉熵损失metrics=['accuracy'])return model# 模型训练(与问题一相同)
def train_model(X_train, y_train, X_val, y_val):model = build_model()model.fit(X_train, y_train, epochs=10, validation_data=(X_val, y_val))return model# 计算ROC曲线和AUC
def calculate_roc_auc(model, X_val, y_val):y_pred = model.predict(X_val)fpr, tpr, thresholds = roc_curve(y_val, y_pred)roc_auc = auc(fpr, tpr)return fpr, tpr, roc_auc# 绘制ROC曲线
def plot_roc_curve(fpr, tpr, roc_auc):plt.figure()plt.plot(fpr, tpr, color='darkorange', lw=2, label='ROC curve (area = %0.2f)' % roc_auc)plt.plot([0, 1], [0, 1], color='navy', lw=2, linestyle='--')plt.xlim([0.0, 1.0])plt.ylim([0.0, 1.05])plt.xlabel('False Positive Rate')plt.ylabel('True Positive Rate')plt.title('Receiver Operating Characteristic')#见完整代码

问题三

问题三要求使用已训练的模型对测试集中的坑洼图像进行识别,并将识别结果保存在一个CSV文件中。以下是问题三的具体建模思路,:

模型应用

  1. 加载已训练模型:首先,加载问题一或问题二中训练好的模型。这个模型应该是能够识别道路坑洼的模型。

  2. 加载测试数据:加载问题一中提供的测试数据集(通常以图像的形式)。

  3. 图像预处理:对测试数据进行与训练数据相同的预处理,包括图像归一化、缩放等操作。

  4. 模型预测:使用加载的模型对测试数据进行预测,得到每张图像的分类结果(0表示坑洼,1表示正常道路)。

结果保存

  1. 保存识别结果:将图像文件名与对应的分类结果(0或1)保存在CSV文件中。这个文件将作为问题三的提交文件。

模型应用

  • 加载已训练模型:

model = load_trained_model ( ) \text{model} = \text{load\_trained\_model}() model=load_trained_model()

  • 加载测试数据:

    test_data = load_test_data ( ) \text{test\_data} = \text{load\_test\_data}() test_data=load_test_data()

  • 图像预处理:

    preprocessed_test_data = preprocess_images ( test_data ) \text{preprocessed\_test\_data} = \text{preprocess\_images}(\text{test\_data}) preprocessed_test_data=preprocess_images(test_data)

  • 模型预测:

    predictions = model.predict ( preprocessed_test_data ) \text{predictions} = \text{model.predict}(\text{preprocessed\_test\_data}) predictions=model.predict(preprocessed_test_data)

结果保存

  • 保存识别结果:

    save_results_to_csv ( test_data_file_names , predictions ) \text{save\_results\_to\_csv}(\text{test\_data\_file\_names}, \text{predictions}) save_results_to_csv(test_data_file_names,predictions)

import numpy as np
import pandas as pd
import tensorflow as tf
from tensorflow import keras# 加载已训练的模型
def load_trained_model(model_path):model = keras.models.load_model(model_path)return model# 加载测试数据
def load_test_data(test_data_dir):# 你需要编写加载测试数据的代码,返回测试数据集# 这里使用一个假设的示例,你需要根据实际数据进行适配test_data = np.random.rand(1000, 224, 224, 3)  # 示例随机生成测试图像数据return test_data# 图像预处理(与问题二相似)
def preprocess_images(images):# 你需要编写与问题二中相似的图像预处理代码# 包括图像归一化、缩放、通道处理等操作return preprocessed_images# 模型预测
def predict_with_model(model, test_data):predictions = model.predict(test_data)# 假设模型输出概率,可以根据阈值将概率转换为类别(0或1)predicted_labels = (predictions >= 0.5).astype(int)return predicted_labels# 保存识别结果到CSV文件
def save_results_to_csv(file_names, predicted_labels, output_csv_file):results_df = pd.DataFrame({'fnames': file_names, 'label': predicted_labels})results_df.to_csv(output_csv_file, index=False)# 示例用法
if __name__ == '__main__':model_path = 'trained_model.h5'  # 已训练模型的文件路径test_data_dir = 'test_data'  # 测试数据集的目录output_csv_file = 'test_results.csv'  # 结果保存的CSV文件名# 加载已训练的模型trained_model = load_trained_model(model_path)
#见完整版代码

完整代码+思路:
2023年第四届MathorCup大数据竞赛(A题)

这篇关于2023年第四届MathorCup大数据竞赛(A题)|坑洼道路检测和识别|数学建模完整代码+建模过程全解全析的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/290678

相关文章

浅析Spring Security认证过程

类图 为了方便理解Spring Security认证流程,特意画了如下的类图,包含相关的核心认证类 概述 核心验证器 AuthenticationManager 该对象提供了认证方法的入口,接收一个Authentiaton对象作为参数; public interface AuthenticationManager {Authentication authenticate(Authenti

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

作业提交过程之HDFSMapReduce

作业提交全过程详解 (1)作业提交 第1步:Client调用job.waitForCompletion方法,向整个集群提交MapReduce作业。 第2步:Client向RM申请一个作业id。 第3步:RM给Client返回该job资源的提交路径和作业id。 第4步:Client提交jar包、切片信息和配置文件到指定的资源提交路径。 第5步:Client提交完资源后,向RM申请运行MrAp

综合安防管理平台LntonAIServer视频监控汇聚抖动检测算法优势

LntonAIServer视频质量诊断功能中的抖动检测是一个专门针对视频稳定性进行分析的功能。抖动通常是指视频帧之间的不必要运动,这种运动可能是由于摄像机的移动、传输中的错误或编解码问题导致的。抖动检测对于确保视频内容的平滑性和观看体验至关重要。 优势 1. 提高图像质量 - 清晰度提升:减少抖动,提高图像的清晰度和细节表现力,使得监控画面更加真实可信。 - 细节增强:在低光条件下,抖

阿里开源语音识别SenseVoiceWindows环境部署

SenseVoice介绍 SenseVoice 专注于高精度多语言语音识别、情感辨识和音频事件检测多语言识别: 采用超过 40 万小时数据训练,支持超过 50 种语言,识别效果上优于 Whisper 模型。富文本识别:具备优秀的情感识别,能够在测试数据上达到和超过目前最佳情感识别模型的效果。支持声音事件检测能力,支持音乐、掌声、笑声、哭声、咳嗽、喷嚏等多种常见人机交互事件进行检测。高效推