科研训练第六周:关于《Learn from Syntax: Improving Pair-wise Aspect and Opinion Terms Extraction with Ric》的复现——

本文主要是介绍科研训练第六周:关于《Learn from Syntax: Improving Pair-wise Aspect and Opinion Terms Extraction with Ric》的复现——,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

时间确实比较紧张,进度稍微有点停滞,课设结束啦,我得赶一下科研的进度~~

服务器的内存不够用是我没想到的,大概是有别人也在跑叭
在这里插入图片描述
数据处理感觉还是得本地跑一下然后save,云端报错如下:
在这里插入图片描述
看回答说是request请求太多被拒绝了🙄
————————————10.18————————————————————
本周的计划:

  • 完成数据预处理阶段的事情(大概是一直到词向量生成阶段叭)
  • datasets下的文件全部看完(自己上手写一下)
  • 读论文叭(感觉还是要有输入才行)

这周赶进度,不然下周又开始忙起来啦!

————————————10.19————————————————————
在这里插入图片描述
果然是服务器被占用的问题,下次还是乘早跑代码(哈哈,悄悄写bug然后惊吓所有人),不过预处理部分的话,其实用资源的地方还是不多。本地的遗留问题还是得解决

贴一下io_utils.py的问题:
好像服务器不同接口用的yaml的版本有区别,11021端口的话,Loader=yaml.FullLoader需要注释掉才能正常运行,11022和本地的话必须加上这个,否则报错(第22行)

def read_yaml(path, encoding='utf-8'):with open(path, 'r', encoding=encoding) as file:#input, Loader=yaml.FullLoaderreturn yaml.load(file.read(),Loader=yaml.FullLoader)

结束了数据处理,因为是原始文件生成json所以那部分的代码自己的本周的要求是跑通就好,
之前在terminal一直报错(什么远程服务器拒绝连接),但是诡异的是用pycharm直接run的时候又没有问题了,但是源码里的路径需要自己修改一下

要求是写完单词表示部分的代码,一开始觉得还好,看完才知道一堆代码要啃吖😂

关于LAGCN

import torch
import torch.nn as nn
class LAGCN(nn.Module):"""也就是说,这一层有前馈与反馈"""def __init__(self,dep_dim,in_features,out_features,pos_dim=None,bias=True):"""in_features:bert_dimout_features:bert_dim"""super(LAGCN,self).__init__()self.dep_dim=dep_dim #依赖边的维度self.pos_dim=pos_dim #pos维度self.in_features=in_features #词向量的维度self.out_features=out_features"""# 一个说明:对输入数据做线性变换:\(y = Ax + b\)# 参数: in_features - 每个输入样本的大小 out_features - 每个输出样本的大小# bias - 若设置为False,这层不会学习偏置。默认值:True 形状"""self.dep_attn=nn.Linear(dep_dim+pos_dim+in_features,out_features)self.dep_fc=nn.Linear(dep_dim,out_features)#TODO:应该是对于依赖的参数self.pos_fc=nn.Linear(pos_dim,out_features)#TODO:对于pos的参数def forward(self,text,adj,dep_embed,pos_embed=None):""":param text: [batch size, seq_len, feat_dim]:param adj: [batch size, seq_len, seq_len]--------------------------依赖边的邻接矩阵:param dep_embed: [batch size, seq_len, seq_len, dep_type_dim]:param pos_embed: [batch size, seq_len, pos_dim]:return: [batch size, seq_len, feat_dim]"""batch_size,seq_len,feed_dim=text.shapeval_us=text.unsqueeze(dim=2)# 应该是对于默认位置插入维度2val_us=val_us.repeat(1,1,seq_len,1)# 沿着指定的维度重复tensorpos_us=pos_embed.unsqueeze(dim=2).repeat(1,1,seq_len,1)# 最终得到的形状是[batch_size seq_len,seq_len,feat_dim+pos_dim+dep_dim]val_sum=torch.cat([val_us,pos_us,dep_embed],dim=-1)# 横向拼接r=self.dep_attn(val_sum)p=torch.sum(r,dim=-1)#TODO:不懂mask=(adj==0).float()*(-1e30)#TODO:是对于不存在依赖边的一种最小化他们的影响吗p=p+maskp=torch.softmax(p,dim=2)p_us=p.unsqueeze(3).repeat(1,1,1,feed_dim)output=val_us+self.pos_fc(pos_us)+self.dep_fc(dep_embed)output=torch.mul(p_us,output)output_sum=torch.sum(output,dim=2)# 输出的那个给顶层使用的return r,output_sum,p#这个输出

——————————————10.21————————————————
关于coreNlp:
在这里插入图片描述

命令行输入,保持cmd的窗口打开,9000窗口可以运行
java -mx4g -cp “*” edu.stanford.nlp.pipeline.StanfordCoreNLPServer -port 9000 -timeout 15000

————————10.24——————
节日快乐
写完bert的小DEMO啦
开心😃
在这里插入图片描述

这篇关于科研训练第六周:关于《Learn from Syntax: Improving Pair-wise Aspect and Opinion Terms Extraction with Ric》的复现——的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/826981

相关文章

科研绘图系列:R语言扩展物种堆积图(Extended Stacked Barplot)

介绍 R语言的扩展物种堆积图是一种数据可视化工具,它不仅展示了物种的堆积结果,还整合了不同样本分组之间的差异性分析结果。这种图形表示方法能够直观地比较不同物种在各个分组中的显著性差异,为研究者提供了一种有效的数据解读方式。 加载R包 knitr::opts_chunk$set(warning = F, message = F)library(tidyverse)library(phyl

MiniGPT-3D, 首个高效的3D点云大语言模型,仅需一张RTX3090显卡,训练一天时间,已开源

项目主页:https://tangyuan96.github.io/minigpt_3d_project_page/ 代码:https://github.com/TangYuan96/MiniGPT-3D 论文:https://arxiv.org/pdf/2405.01413 MiniGPT-3D在多个任务上取得了SoTA,被ACM MM2024接收,只拥有47.8M的可训练参数,在一张RTX

Spark MLlib模型训练—聚类算法 PIC(Power Iteration Clustering)

Spark MLlib模型训练—聚类算法 PIC(Power Iteration Clustering) Power Iteration Clustering (PIC) 是一种基于图的聚类算法,用于在大规模数据集上进行高效的社区检测。PIC 算法的核心思想是通过迭代图的幂运算来发现数据中的潜在簇。该算法适用于处理大规模图数据,特别是在社交网络分析、推荐系统和生物信息学等领域具有广泛应用。Spa

SigLIP——采用sigmoid损失的图文预训练方式

SigLIP——采用sigmoid损失的图文预训练方式 FesianXu 20240825 at Wechat Search Team 前言 CLIP中的infoNCE损失是一种对比性损失,在SigLIP这个工作中,作者提出采用非对比性的sigmoid损失,能够更高效地进行图文预训练,本文进行介绍。如有谬误请见谅并联系指出,本文遵守CC 4.0 BY-SA版权协议,转载请联系作者并注

Detectorn2预训练模型复现:数据准备、训练命令、日志分析与输出目录

Detectorn2预训练模型复现:数据准备、训练命令、日志分析与输出目录 在深度学习项目中,目标检测是一项重要的任务。本文将详细介绍如何使用Detectron2进行目标检测模型的复现训练,涵盖训练数据准备、训练命令、训练日志分析、训练指标以及训练输出目录的各个文件及其作用。特别地,我们将演示在训练过程中出现中断后,如何使用 resume 功能继续训练,并将我们复现的模型与Model Zoo中的

UMI复现代码运行逻辑全流程(一)——eval_real.py(尚在更新)

一、文件夹功能解析 全文件夹如下 其中,核心文件作用为: diffusion_policy:扩散策略核心文件夹,包含了众多模型及基础库 example:标定及配置文件 scripts/scripts_real:测试脚本文件,区别在于前者倾向于单体运行,后者为整体运行 scripts_slam_pipeline:orb_slam3运行全部文件 umi:核心交互文件夹,作用在于构建真

文章解读与仿真程序复现思路——电力自动化设备EI\CSCD\北大核心《考虑燃料电池和电解槽虚拟惯量支撑的电力系统优化调度方法》

本专栏栏目提供文章与程序复现思路,具体已有的论文与论文源程序可翻阅本博主免费的专栏栏目《论文与完整程序》 论文与完整源程序_电网论文源程序的博客-CSDN博客https://blog.csdn.net/liang674027206/category_12531414.html 电网论文源程序-CSDN博客电网论文源程序擅长文章解读,论文与完整源程序,等方面的知识,电网论文源程序关注python

多云架构下大模型训练的存储稳定性探索

一、多云架构与大模型训练的融合 (一)多云架构的优势与挑战 多云架构为大模型训练带来了诸多优势。首先,资源灵活性显著提高,不同的云平台可以提供不同类型的计算资源和存储服务,满足大模型训练在不同阶段的需求。例如,某些云平台可能在 GPU 计算资源上具有优势,而另一些则在存储成本或性能上表现出色,企业可以根据实际情况进行选择和组合。其次,扩展性得以增强,当大模型的规模不断扩大时,单一云平

智能工厂程序设计 之1 智能工厂都本俱的方面(Facet,Aspect和Respect)即智能依赖的基底Substrate 之1

Q1、昨天分别给出了三个智能工厂的 “面face”(里面inter-face,外面outer-face和表面surface) 以及每个“面face” 各自使用的“方”(StringProcessor,CaseFilter和ModeAdapter)  。今天我们将继续说说三个智能工厂的“方面” 。在展开之前先看一下三个单词:面向facing,取向oriented,朝向toword。理解这三个词 和

Learn ComputeShader 09 Night version lenses

这次将要制作一个类似夜视仪的效果 第一步就是要降低图像的分辨率, 这只需要将id.xy除上一个数字然后再乘上这个数字 可以根据下图理解,很明显通过这个操作在多个像素显示了相同的颜色,并且很多像素颜色被丢失了,自然就会有降低分辨率的效果 效果: 但是这样图像太锐利了,我们加入噪声去解决这个问题 [numthreads(8, 8, 1)]void CSMain(uint3 id