2017年过去了 我很怀念他

2023-12-18 02:32
文章标签 2017 过去 怀念

本文主要是介绍2017年过去了 我很怀念他,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

刚刚把旧的台历移除了,换上了新的。翻了翻一年的小随笔,还真的不少呢。

2017年的倒数第6天,学术交流和开题报告暗流涌动。我理不清自己的思绪,却又被琐事相扰,索性什么都不做,任时光流逝。

我盯着博客的简介,旧时昏昏宁勿忆。暗自思忖着,谁又能做到不忆过去,不畏将来呢?

以前很喜欢某种仪式感,喜欢在人群中高呼 5-4-3-2-1-我爱你北京,喜欢在00:00保存实验报告庆幸还有人陪我又过了一个年。可是如今,曾经的矫情和幼稚随风而去,抱着理综卷子过年已经不是什么能感动自己的事情了。零点,让我能够想起的,也就是曾经爱过的那些人和事儿。跨年,就是把昨天没做完的事情,放到今天做,而不是不去年没做完的事,放到今年做。

这一年,太平凡了吧。可以用毫无波澜来形容了。但我依然可以想起几个还算难忘的事情。
3月份,下了一场雪。我,harvest,杨总,冰神,圆圆几个人在组会前去打了个雪仗,雪真好看,他们也是。
5月份,实验室出游,坐了海盗船,被吓哭了。晚上看到了春季大三角和春季大钻石,还有北斗七星,很开心,很开心。
8月份,学车,路过中关村软件园,莫名的神圣感。
下半年,因为某些事儿哭过一回,意识到自己还是那么软弱和无力。

说好的书,没看完。
说好的瘦。没做到。
说好的课,没听完。

我都不想许愿了。再见吧。

哦,我还是许一个愿望吧,希望我的格子友少和我谈点人生,希望我少和男朋友谈点人生。

希望人生有波澜,哭个长夜也无妨。

这篇关于2017年过去了 我很怀念他的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/506737

相关文章

2017 版本的 WebStorm 永久破解

1.  在IntelliJ官网中下载 最新版本的WebStorm   下载地址:https://www.jetbrains.com/webstorm/download/#section=windows 2. 获取注册码    获取地址:http://idea.lanyus.com/   点击获取注册码,然后将注册码复制,再打开最新版的WebStorm,将注册码粘贴到激活框中就大功告

半年过去了,我还在路上。

睡前打开博客看了下小伙伴今天都做了什么,才记起今天是6月15,半年过去了,写下这篇博客记录半年的时光。 那些年爸爸为你做过的事。 猛然想起今天是父亲节,老爸估计已经入睡了,就没打电话回去了,这半年来跟家人联系越来越少了,每次打电话只是唠唠家常。 记得有一次打回去给老妈,老妈说我母亲节没有打电话回家,不比哥哥懂事,提醒我得在端午节老爸生日的那天记得打电话回家。 其实我还记得老爸的生日,

网易2017秋招编程题集合--完全解析

前言 一些大公司的真题里面总有些含金量很高的几个题,网易2017秋招编程题集合里面也有几个题是非常好的,比如说第三题跳石板,第四题黑暗的字符串都是很好的题目。特别是第四题的那种思路之前几乎完全没有接触过,还有第六题最大的奇约数里面还有部分数学思维在里面。 1.回文序列 题目描述:如果一个数字序列逆置之后跟原序列是一样的就称这样的数字序列为回文序列。例如: {1, 2, 1}, {15, 7

Fastjson1.2.24(CVE-2017-18349)分析

前言 Fastjson在1.2.24版本之前存在两条利用链,分别是 JNDI com.sun.rowset.JdbcRowSetImplcom.sun.org.apache.xalan.internal.xsltc.trax.TemplatesImpl 我们本次也是对这两条链进行分析和过程复现 在fastjson漏洞中,我们往往是寻找一个类,它的构造函数、 getter,setter 方法有问

NLP-生成模型-2017-Transformer(一):Encoder-Decoder模型【非序列化;并行计算】【O(n²·d),n为序列长度,d为维度】【用正余弦函数进行“绝对位置函数式编码”】

《原始论文:Attention Is All You Need》 一、Transformer 概述 在2017年《Attention Is All You Need》论文里第一次提出Transformer之前,常用的序列模型都是基于卷积神经网络或者循环神经网络,表现最好的模型也是基于encoder- decoder框架的基础加上attention机制。 2018年10月,Google发出一篇

NLP-预训练模型-2017:ULMFiT(Universal LM Fine-tuning for Text Classification)【使用AWD-LSTM;模型没有创新;使用多个训练小技巧】

迁移学习在计算机视觉有很大的影响,但现在的NLP中的方法仍然需要特定任务的修改和 从头开始的训练。我们提出通用语言模型微调,一种可以应用NLP任何任务中的迁移学习方法。我们模型在分类任务中都表现得良好,并且在小数据集上的表现优异。 一、ULMFiT (Universal Language Model Fine- tuning)组成步骤: a) General-domain LM pretr

NLP-文本匹配-2017:BiMPM【Bilateral Multi-Perspective Matching for Natural Language Sentences】

NLP-文本匹配-2016:BiMPM【Bilateral Multi-Perspective Matching for Natural Language Sentences】

过去的经验4_一些喜欢的博客

发现第一个已经被加密了。哭泣哭泣 一会把其他的都给转载一下,不然以后都不知道是什么了 http://blog.sina.com.cn/s/blog_4bb52a1601012x8j.html  //java调用dll例子。 http://favccxx.blog.51cto.com/2890523/1331115/        //word和excel导入导出 http://blog.c

过去的经验3_黑客和程序员

我应该写不出这么有深度的话。这是我从哪复制的。 1. 黑客是程序员的子集。   2. 程序员在解决那些原先已经被解决过的问题。而黑客通常是在尝试解决一些新的问题。   3. 程序员是一种职业,而黑客是一种兴趣。   4. 程序员的工作有很多限制,而黑客可以尽情发挥。   5. 程序员都想把自己说得更好,因为他们要推销自己,而真正的黑客更谦虚,他们知道自己懂得还不够多。   6. 程序员是一种“职

过去的经验1_常见错误

今天清理电脑的时候,发现了自己在4年前写的一些总结。那还是在第一家公司的时候。现在粘贴出来,防止以后遇到,找不到。 感觉回忆也挺好的。 Property 'rqStime' not found on type com.controller.gopost.entity.Gopost 明明有这个属性,一直报这个错误, reason:妈的,没有写set get方法。 error: 输入 http