达观杯--风险事件实验记录

2023-10-08 00:30

本文主要是介绍达观杯--风险事件实验记录,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

达观杯–风险事件实验记录

官方代码

#!/usr/bin/env python
# coding: utf-8import pandas as pd
from sklearn.model_selection import train_test_splitimport sys
sys.path.append("./")# ### 加载数据集,并切分train/dev# In[2]:# 加载数据
df_train = pd.read_csv("./datasets/phase_1/splits/fold_0/train.txt")
df_train.columns = ["id", "text", "label"]
df_val = pd.read_csv("./datasets/phase_1/splits/fold_0/dev.txt")
df_val.columns = ["id", "text", "label"]
df_test = pd.read_csv("./datasets/phase_1/splits/fold_0/test.txt")
df_test.columns = ["id", "text", ]# 构建词表
charset = set()
for text in df_train['text']:for char in text.split(" "):charset.add(char)
id2char = ['OOV', ',', '。', '!', '?'] + list(charset)
char2id = {id2char[i]: i for i in range(len(id2char))}# 标签集
id2label = list(df_train['label'].unique())
label2id = {id2label[i]: i for i in range(len(id2label))}# ### 定义模型# In[3]:# 定义模型from tensorflow.keras.layers import *
from tensorflow.keras.models import *
MAX_LEN = 128
input_layer = Input(shape=(MAX_LEN,))
layer = Embedding(input_dim=len(id2char), output_dim=256)(input_layer)
layer = Bidirectional(LSTM(256, return_sequences=True))(layer)
layer = Flatten()(layer)
output_layer = Dense(len(id2label), activation='softmax')(layer)
model = Model(inputs=input_layer, outputs=output_layer)
model.summary()
model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])from tensorflow.keras.preprocessing.sequence import pad_sequences
import numpy as npX_train, X_val, X_test = [], [], []
y_train = np.zeros((len(df_train), len(id2label)), dtype=np.int8)
y_val = np.zeros((len(df_val), len(id2label)), dtype=np.int8)for i in range(len(df_train)):X_train.append([char2id[char] for char in df_train.loc[i, 'text'].split(" ")])y_train[i][label2id[df_train.loc[i, 'label']]] = 1
for i in range(len(df_val)):X_val.append([char2id[char] if char in char2id else 0 for char in df_val.loc[i, 'text'].split(" ")])y_val[i][label2id[df_val.loc[i, 'label']]] = 1
for i in range(len(df_test)):X_test.append([char2id[char] if char in char2id else 0 for char in df_test.loc[i, 'text'].split(" ")])X_train = pad_sequences(X_train, maxlen=MAX_LEN, padding='post', truncating='post')
X_val = pad_sequences(X_val, maxlen=MAX_LEN, padding='post', truncating='post')
X_test = pad_sequences(X_test, maxlen=MAX_LEN, padding='post', truncating='post')# ### 模型训练# In[5]:model.fit(x=X_train, y=y_train, validation_data=(X_val, y_val), epochs=5, batch_size=32)# In[19]:y_val_pred = model.predict(X_val).argmax(axis=-1)
print(y_val_pred[: 20])
y_val = []
for i in range(len(df_val)):y_val.append(label2id[df_val.loc[i, 'label']])
y_val = [int(w) for w in y_val]
print(y_val[: 20])from sklearn.metrics import classification_report
results = {}
classification_report_dict = classification_report(y_val_pred, y_val, output_dict=True)
for key0, val0 in classification_report_dict.items():if isinstance(val0, dict):for key1, val1 in val0.items():results[key0 + "__" + key1] = val1else:results[key0] = val0import json
print(json.dumps(results, indent=2, ensure_ascii=False))y_pred = model.predict(X_test).argmax(axis=-1)
pred_labels = [id2label[i] for i in y_pred]
pd.DataFrame({"id": df_test['id'], "label": pred_labels}).to_csv("submission.csv", index=False)

baseline f1-score
0.36730954652

StratifiedKFold 有放回交叉验证
20210901

dev macro-F101234avg
随机word2vec bilstm max-pool0.50197401053979820.53050473620153840.487120907159471260.487120907159471260.488103991753090660.501351448
随机word2vec textcnn max-pool0.4395620552615170.46484840733822890.442616125512826750.44570939244035070.4341243103527730.4453720582
随机word2vec bigru max-pool0.483426250238874640.50540704541556760.49331289220803780.52012172149033460.495564517284430630.499566485

submit 随机word2vec bilstm max-pool -> 0.56353646

20210902

dev macro-F101234avg
word2vec 128dim bilstm max-pool0.47087440684654240.478453412735319940.49494684981443540.474457750601617770.49207268228230060.48216102
word2vec 256dim bilstm max-pool0.50002424767355020.50747857754001520.488983134653656340.481419644085862740.50119122073624880.495819365

20210902

dev macro-F101234avg
word2vec bilstm dr_pool0.495509199632063360.49591742291327990.49756356181477690.49015137962620050.53642224670996690.503112762
word2vec bilstm slf_attn_pool0.5386909292600010.53488264227098110.53442791393901430.52971579211678130.50876949075931670.529297354
word2vec bilstm avg_pool0.50002424767355020.50747857754001520.488983134653656340.481419644085862740.50119122073624880.495819365
word2vec bilstm max_pool0.53783731233296860.54301060486485180.53966150432342090.53740386741775140.53642224670996690.538867107

有点过拟合

20210907

dev macro-F101234avg
bert-base-chinese+random0.50870.47650.49420.51020.49360.49664
bert-base-chinese+w2v0.51520.48650.50790.50370.5080.50426
chinese-bert-wwm-ext+random0.52810.48540.5120.50860.51590.51
chinese-bert-wwm-ext+w2v0.510.48690.50640.5050.50540.50274
chinese-roberta-wwm-ext+random0.5050.47990.50290.50730.49540.4981
chinese-roberta-wwm-ext+w2v0.50570.47860.49930.49170.49030.49312

20210908

dev macro-F101234avg
chinese-roberta-wwm-ext+counts0.53290.51010.51410.54120.52590.52484
chinese-roberta-wwm-ext + dict_vocab2freq0.52460.50720.50910.51390.51030.51302
chinese-roberta-wwm-ext + dict_vocab2freq_wiki_zh0.51550.50490.50750.52930.50910.51326
chinese-bert-wwm-ext + counts0.53520.514xx0.53040.50280.5206
chinese-bert-wwm-ext_dict + vocab2freq_08190.5254xxxx0.51510.51860.5197
chinese-bert-wwm-ext + dict_vocab2freq_wiki_zh0.52170.5105xx0.52740.52560.5213


*20210910
NEZHA 脱敏+counts

dev macro-F101234avg
NEZHA-Base + counts0.51910.50780.51780.51690.54690.5217
NEZHA-Base-WWM + counts0.54940.52580.50910.53250.52530.52948


Roberta 脱敏 + 预训练 + counts

dev macro-F101234avg
chinese-roberta-wwm-ext + pretrain + counts0.54270.52030.52370.5270.52860.52846

这篇关于达观杯--风险事件实验记录的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/161476

相关文章

将sqlserver数据迁移到mysql的详细步骤记录

《将sqlserver数据迁移到mysql的详细步骤记录》:本文主要介绍将SQLServer数据迁移到MySQL的步骤,包括导出数据、转换数据格式和导入数据,通过示例和工具说明,帮助大家顺利完成... 目录前言一、导出SQL Server 数据二、转换数据格式为mysql兼容格式三、导入数据到MySQL数据

关于rpc长连接与短连接的思考记录

《关于rpc长连接与短连接的思考记录》文章总结了RPC项目中长连接和短连接的处理方式,包括RPC和HTTP的长连接与短连接的区别、TCP的保活机制、客户端与服务器的连接模式及其利弊分析,文章强调了在实... 目录rpc项目中的长连接与短连接的思考什么是rpc项目中的长连接和短连接与tcp和http的长连接短

Oracle查询优化之高效实现仅查询前10条记录的方法与实践

《Oracle查询优化之高效实现仅查询前10条记录的方法与实践》:本文主要介绍Oracle查询优化之高效实现仅查询前10条记录的相关资料,包括使用ROWNUM、ROW_NUMBER()函数、FET... 目录1. 使用 ROWNUM 查询2. 使用 ROW_NUMBER() 函数3. 使用 FETCH FI

Python MySQL如何通过Binlog获取变更记录恢复数据

《PythonMySQL如何通过Binlog获取变更记录恢复数据》本文介绍了如何使用Python和pymysqlreplication库通过MySQL的二进制日志(Binlog)获取数据库的变更记录... 目录python mysql通过Binlog获取变更记录恢复数据1.安装pymysqlreplicat

Servlet中配置和使用过滤器的步骤记录

《Servlet中配置和使用过滤器的步骤记录》:本文主要介绍在Servlet中配置和使用过滤器的方法,包括创建过滤器类、配置过滤器以及在Web应用中使用过滤器等步骤,文中通过代码介绍的非常详细,需... 目录创建过滤器类配置过滤器使用过滤器总结在Servlet中配置和使用过滤器主要包括创建过滤器类、配置过滤

正则表达式高级应用与性能优化记录

《正则表达式高级应用与性能优化记录》本文介绍了正则表达式的高级应用和性能优化技巧,包括文本拆分、合并、XML/HTML解析、数据分析、以及性能优化方法,通过这些技巧,可以更高效地利用正则表达式进行复杂... 目录第6章:正则表达式的高级应用6.1 模式匹配与文本处理6.1.1 文本拆分6.1.2 文本合并6

python与QT联合的详细步骤记录

《python与QT联合的详细步骤记录》:本文主要介绍python与QT联合的详细步骤,文章还展示了如何在Python中调用QT的.ui文件来实现GUI界面,并介绍了多窗口的应用,文中通过代码介绍... 目录一、文章简介二、安装pyqt5三、GUI页面设计四、python的使用python文件创建pytho

Python中的异步:async 和 await以及操作中的事件循环、回调和异常

《Python中的异步:async和await以及操作中的事件循环、回调和异常》在现代编程中,异步操作在处理I/O密集型任务时,可以显著提高程序的性能和响应速度,Python提供了asyn... 目录引言什么是异步操作?python 中的异步编程基础async 和 await 关键字asyncio 模块理论

禁止平板,iPad长按弹出默认菜单事件

通过监控按下抬起时间差来禁止弹出事件,把以下代码写在要禁止的页面的页面加载事件里面即可     var date;document.addEventListener('touchstart', event => {date = new Date().getTime();});document.addEventListener('touchend', event => {if (new

Node.js学习记录(二)

目录 一、express 1、初识express 2、安装express 3、创建并启动web服务器 4、监听 GET&POST 请求、响应内容给客户端 5、获取URL中携带的查询参数 6、获取URL中动态参数 7、静态资源托管 二、工具nodemon 三、express路由 1、express中路由 2、路由的匹配 3、路由模块化 4、路由模块添加前缀 四、中间件