电动汽车充电站充电量预测_学习笔记(二)——特征优化

2023-12-19 04:50

本文主要是介绍电动汽车充电站充电量预测_学习笔记(二)——特征优化,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

赛题分析

        本次竞赛的目标是:根据2014.4.15~2015.4.14一年中,0~499总共500个场站的每日充电量数据,以及其他相关数据,预测接下来一周的各个场站的每日充电量。

        stub_info.csv在测试集和训练集中一致,记录了每个场站的地理、性能等信息。

        power.csv仅在训练集中出现,记录了2014.4.15~2015.4.14一年中,0~499总共500个场站的每日充电量数据。

        power_forecast_history.csv在测试集和训练集中不同,记录着各个场站每日24小时的收费情况等信息。

        由上文的数据探索容易发现:

  1. power_forecast_history.csv表中,同一场站中单日的各小时的数据基本相同,可以以场站编号和日期为组合标签,进行聚合排重;
  2. 日期信息在baseline基础上,还可挖掘出节假日特征;
  3. h3编码未被使用,有待解析,用于提取特征。

初步处理

# 数据格式处理
import pandas as pd# 设置数据集路径
path = r'E:\编程\电动汽车充电站充电量预测'# 读取数据
train_power_forecast_history = pd.read_csv(path + r'\训练集\power_forecast_history.csv')
test_power_forecast_history = pd.read_csv(path + r'\测试集\power_forecast_history.csv')
train_power = pd.read_csv(path + r'\训练集\power.csv')
stub_info = pd.read_csv(path + r'\训练集\stub_info.csv')# 聚合数据
'''head(1):1~24h数据重复,只取各场站第1小时,即每个分组第一行的数据'''
train_df = train_power_forecast_history.groupby(['id_encode', 'ds']).head(1)
del train_df['hour']test_df = test_power_forecast_history.groupby(['id_encode', 'ds']).head(1)
del test_df['hour']tmp_df = train_power.groupby(['id_encode', 'ds'])['power'].sum()
tmp_df.columns = ['id_encode', 'ds', 'power']# 合并充电量数据
train_df = train_df.merge(tmp_df, on=['id_encode', 'ds'], how='left')# 合并站点静态数据
train_df = train_df.merge(stub_info, on='id_encode', how='left')
test_df = test_df.merge(stub_info, on='id_encode', how='left')# 数据变换
train_df['flag'] = train_df['flag'].map({'A': 0, 'B': 1})
test_df['flag'] = test_df['flag'].map({'A': 0, 'B': 1})# 保存
train_df.to_csv(path + r'\process1\train_df1.csv', index=False)
test_df.to_csv(path + r'\process1\test_df1.csv', index=False)

时序特征

# 数据格式处理
import pandas as pd# 时间特征提取
import datetime# 设置数据集路径
path = r'E:\编程\电动汽车充电站充电量预测'# 读取数据
train_df = pd.read_csv(path + r'\process1\train_df1.csv')
test_df = pd.read_csv(path + r'\process1\test_df1.csv')# 获取节假日列表
def get_holiday_set():holiday_set = set()'''取并集,实现集合的多元素添加'''# 清明节holiday_set = holiday_set | {datetime.date(2023, 4, 5)}# 劳动节holiday_set = holiday_set | {datetime.date(2022, 4, 30), datetime.date(2022, 5, 1), datetime.date(2014, 5, 2),datetime.date(2022, 5, 3), datetime.date(2022, 5, 4)}# 端午节holiday_set = holiday_set | {datetime.date(2022, 6, 3), datetime.date(2022, 6, 4), datetime.date(2022, 6, 5)}# 中秋节holiday_set = holiday_set | {datetime.date(2022, 9, 10), datetime.date(2022, 9, 11), datetime.date(2022, 9, 12)}# 国庆节holiday_set = holiday_set | {datetime.date(2022, 10, 1), datetime.date(2022, 10, 2), datetime.date(2022, 10, 3),datetime.date(2022, 10, 4), datetime.date(2022, 10, 5), datetime.date(2022, 10, 6),datetime.date(2022, 10, 7)}# 元旦节holiday_set = holiday_set | {datetime.date(2022, 12, 31), datetime.date(2023, 1, 1), datetime.date(2023, 1, 2)}# 春节holiday_set = holiday_set | {datetime.date(2023, 1, 21), datetime.date(2023, 1, 22), datetime.date(2023, 1, 23),datetime.date(2023, 1, 24), datetime.date(2023, 1, 25), datetime.date(2023, 1, 26),datetime.date(2023, 1, 27)}return holiday_set# 定义提取时间戳的方法
def get_time_feature(df, col):# 浅拷贝原表,保护原数据df_copy = df.copy()# 统一格式:ds_prefix = col + "_"# 命名新字段,用于储存日期数据df_copy['new_' + col] = df_copy[col].astype(str)# 统一格式:new_dscol = 'new_' + col# 将MySQL类型日期数据转化为’年月日‘日期格式df_copy[col] = pd.to_datetime(df_copy[col], format='%Y%m%d')df_copy[prefix + 'year'] = df_copy[col].dt.year     # 从日期字段提取年特征df_copy[prefix + 'month'] = df_copy[col].dt.month   # 月df_copy[prefix + 'day'] = df_copy[col].dt.day       # 日# 星期:1=日,2=星期一,3=星期二,4=星期三,5=星期四,6=星期五,7=星期六df_copy[prefix + 'dayofweek'] = df_copy[col].dt.dayofweek# 周末判断:1=周末df_copy[prefix + 'is_wknd'] = df_copy[col].dt.dayofweek // 6# 季度:1~4df_copy[prefix + 'quarter'] = df_copy[col].dt.quarter# 月初判断:返回值为布尔值,再转化为int整数类型df_copy[prefix + 'is_month_start'] = df_copy[col].dt.is_month_start.astype(int)# 月末判断df_copy[prefix + 'is_month_end'] = df_copy[col].dt.is_month_end.astype(int)# 月中判断df_copy[prefix + 'is_month_mid'] = 0df_copy.loc[(10 < df_copy[prefix + 'day']) & (df_copy[prefix + 'day'] <= 20), prefix + 'is_month_mid'] = 1# 节假期判断df_copy[prefix + 'is_holiday'] = 0df_copy.loc[df_copy[col].isin(get_holiday_set()), prefix + 'is_holiday'] = 1del df_copy[col]return df_copy# 提取时间特征
train_df = get_time_feature(train_df, 'ds')
test_df = get_time_feature(test_df, 'ds')# 保存
train_df.to_csv(path + r'\process2\train_df2.csv', index=False)
test_df.to_csv(path + r'\process2\test_df2.csv', index=False)

地理特征

解码
# 数据格式处理
import pandas as pd# 向服务器发送并响应HTTP请求
import requests
import urllib# 加密或检验文件一致性
import hashlib# 解读H3编码
from h3 import h3# 绘制地图
import folium
from IPython.display import display# 设置数据集路径
path = r'E:\编程\电动汽车充电站充电量预测'# 读取数据
stub_info = pd.read_csv(path + r'\训练集\stub_info.csv')# 把H3编码转换成经纬度坐标
stub_info['center'] = stub_info['h3'].apply(lambda x: h3.h3_to_geo(x))# 定义地图绘制方法
def geo_map(df):# 拆分经纬度坐标df[['latitude', 'longitude']] = pd.DataFrame(df['center'].tolist(), columns=['latitude', 'longitude'])# 创建地图m = folium.Map(location=[df['latitude'].mean(), df['longitude'].mean()], zoom_start=10)# 添加标记点for index, row in df.iterrows():folium.Marker(location=[row['latitude'], row['longitude']],popup=row['id_encode']).add_to(m)# 显示地图return m# 绘制地图
si_m = geo_map(stub_info)
display(si_m)# 调取百度api获取经纬度对应地址信息
'''进入百度web服务api网站注册账号, 获取对应的 ak 跟 sk, 
网站指引https://lbsyun.baidu.com/faq/api?title=webapi'''# 建立访问函数
def get_city_frombd(row):# 服务地址host = "https://api.map.baidu.com"# 接口地址uri = "/reverse_geocoding/v3"# 在控制台-应用管理-创建应用后获取的AKak = "rYyvcdfmliu8GsrGoycIRdrSvO2gcMfy"# 在控制台-应用管理-创建应用时,校验方式选择sn校验后生成的SKsk = "MjFcjMs935IeZEU2xG5QAsIaOBXMEtwx"# 设置请求参数coordinate = str(row['latitude']) + ',' + str(row['longitude'])params = {"ak": ak,"output": "json","coordtype": "wgs84ll","extensions_poi": "0","location": coordinate,}# 拼接请求字符串paramsArr = []for key in params:paramsArr.append(key + "=" + params[key])queryStr = uri + "?" + "&".join(paramsArr)# 对queryStr进行转码,safe内的保留字符不转换encodedStr = urllib.request.quote(queryStr, safe="/:=&?#+!$,;'@()*[]")# 在最后直接追加上SKrawStr = encodedStr + sk# 计算snsn = hashlib.md5(urllib.parse.quote_plus(rawStr).encode("utf8")).hexdigest()# 将sn参数添加到请求中queryStr = queryStr + "&sn=" + sn# 此处打印的url为非urlencode后的请求串# 如果将该请求串直接粘贴到浏览器中发起请求,由于浏览器会自动进行urlencode,会导致返回sn校验失败url = host + queryStrresponse = requests.get(url)return response.json().get('result').get('addressComponent')# 定义解码方法
def df_stub_process(df):df['center'] = df['h3'].apply(lambda x: h3.h3_to_geo(x))df[['latitude', 'longitude']] = pd.DataFrame(df['center'].tolist(), columns=['latitude', 'longitude'])df['latitude'] = df['latitude'].apply(lambda x: round(x,6))df['longitude'] = df['longitude'].apply(lambda x: round(x,6))# 通过百度api返回城市信息df['address'] = df[['latitude','longitude']].apply(get_city_frombd, axis=1)return df# 解码
si_df = df_stub_process(stub_info)# 保存
si_df.to_csv(path + r'\process3\map.csv', index=False)
编码 
# 数据格式处理
import numpy as np
import pandas as pd# 设置数据集路径
path = r'E:\编程\电动汽车充电站充电量预测'# 读取数据
train_df = pd.read_csv(path + r'\process2\train_df2.csv')
test_df = pd.read_csv(path + r'\process2\test_df2.csv')
map_df = pd.read_csv(path + r'\process3\map.csv')# 地址编码
def onethot(d):# 一维数组初始化v = np.zeros(1)# str -> dictd = eval(d)# 输入地址编码v[0] = d['adcode']return v# 提取城市位置特征
city = pd.DataFrame(np.vstack(map_df['address'].apply(onethot)))
city.columns = ['city']
city['a'] = 100
city['city'] //= city['a']# 将经纬度坐标与城市位置并入数据集
map_df = pd.concat([map_df, city], axis=1)
map_df = map_df.drop(['address', 'center', 'id_encode', 'a'], axis=1)
train_df = pd.concat([train_df, map_df], axis=1)
test_df = pd.concat([test_df, map_df], axis=1)# 保存
train_df.to_csv(path + r'\process3\train_df3.csv', index=False)
test_df.to_csv(path + r'\process3\test_df3.csv', index=False)
map_df.to_csv(path + r'\process3\map_df0.csv', index=False)

小结

        根据步骤逐级保存阶段结果文件,有利于节省时间和运算量,便于模块化分析和数据管理。需要注意的是,申请第三方运算资源有每日运算量限制,要及时保存数据。

        接下来准备进行特征组合方向的尝试。

这篇关于电动汽车充电站充电量预测_学习笔记(二)——特征优化的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/510942

相关文章

Oracle查询优化之高效实现仅查询前10条记录的方法与实践

《Oracle查询优化之高效实现仅查询前10条记录的方法与实践》:本文主要介绍Oracle查询优化之高效实现仅查询前10条记录的相关资料,包括使用ROWNUM、ROW_NUMBER()函数、FET... 目录1. 使用 ROWNUM 查询2. 使用 ROW_NUMBER() 函数3. 使用 FETCH FI

C#使用HttpClient进行Post请求出现超时问题的解决及优化

《C#使用HttpClient进行Post请求出现超时问题的解决及优化》最近我的控制台程序发现有时候总是出现请求超时等问题,通常好几分钟最多只有3-4个请求,在使用apipost发现并发10个5分钟也... 目录优化结论单例HttpClient连接池耗尽和并发并发异步最终优化后优化结论我直接上优化结论吧,

Java内存泄漏问题的排查、优化与最佳实践

《Java内存泄漏问题的排查、优化与最佳实践》在Java开发中,内存泄漏是一个常见且令人头疼的问题,内存泄漏指的是程序在运行过程中,已经不再使用的对象没有被及时释放,从而导致内存占用不断增加,最终... 目录引言1. 什么是内存泄漏?常见的内存泄漏情况2. 如何排查 Java 中的内存泄漏?2.1 使用 J

MySQL不使用子查询的原因及优化案例

《MySQL不使用子查询的原因及优化案例》对于mysql,不推荐使用子查询,效率太差,执行子查询时,MYSQL需要创建临时表,查询完毕后再删除这些临时表,所以,子查询的速度会受到一定的影响,本文给大家... 目录不推荐使用子查询和JOIN的原因解决方案优化案例案例1:查询所有有库存的商品信息案例2:使用EX

MySQL中my.ini文件的基础配置和优化配置方式

《MySQL中my.ini文件的基础配置和优化配置方式》文章讨论了数据库异步同步的优化思路,包括三个主要方面:幂等性、时序和延迟,作者还分享了MySQL配置文件的优化经验,并鼓励读者提供支持... 目录mysql my.ini文件的配置和优化配置优化思路MySQL配置文件优化总结MySQL my.ini文件

正则表达式高级应用与性能优化记录

《正则表达式高级应用与性能优化记录》本文介绍了正则表达式的高级应用和性能优化技巧,包括文本拆分、合并、XML/HTML解析、数据分析、以及性能优化方法,通过这些技巧,可以更高效地利用正则表达式进行复杂... 目录第6章:正则表达式的高级应用6.1 模式匹配与文本处理6.1.1 文本拆分6.1.2 文本合并6

Vue3 的 shallowRef 和 shallowReactive:优化性能

大家对 Vue3 的 ref 和 reactive 都很熟悉,那么对 shallowRef 和 shallowReactive 是否了解呢? 在编程和数据结构中,“shallow”(浅层)通常指对数据结构的最外层进行操作,而不递归地处理其内部或嵌套的数据。这种处理方式关注的是数据结构的第一层属性或元素,而忽略更深层次的嵌套内容。 1. 浅层与深层的对比 1.1 浅层(Shallow) 定义

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

HDFS—存储优化(纠删码)

纠删码原理 HDFS 默认情况下,一个文件有3个副本,这样提高了数据的可靠性,但也带来了2倍的冗余开销。 Hadoop3.x 引入了纠删码,采用计算的方式,可以节省约50%左右的存储空间。 此种方式节约了空间,但是会增加 cpu 的计算。 纠删码策略是给具体一个路径设置。所有往此路径下存储的文件,都会执行此策略。 默认只开启对 RS-6-3-1024k