同济夏令营回忆

2023-11-08 17:30
文章标签 回忆 夏令营 同济

本文主要是介绍同济夏令营回忆,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

20考研失败,末流211菜鸡一个。当时有点儿耍小聪明进的夏令营(选的直博),因为很菜被刷。
第一天:
去实验室找的夏老师(本来打算找刘老师,办公室在一块),老师问的关于实验室,你想了解什么?介绍一下你的这些比赛吧?
第二天:
笔试:往年只有数据库、c语言程序设计和一篇英文文献的写summary及suggestions,
今年:编译原理30分,选择10分,两个大题各十分。
算法分析与设计30分,选择10分,两个编程题各10分,一个简单题,一个动态规划(背包问题)。
数据库理论:40分,(全英文)有原题。
英文文献阅读:50分。
第三天:
一、 自我介绍(英文)
二、 介绍一下你参加的比赛项目,你主要负责什么?(英文),这个问题会比较随机,主要根据你的英文自我介绍来问,
你觉得哪门课学的比较好,怎么学的?

三、 你的程序设计(c)怎么这么低?还有这个面向对象成绩设计,你是怎么学的?还有这个嵌入式操作系统,还有物联网体系与标准。
四、 介绍你负责的一个项目,它的代码量有多少,你主要负责什么,你本科生期间大概敲了多少行代码?有5k行吗?
五、 智能车比赛中我看你主要负责路径规划,能给我们解释一下吗?
六、 我看你是从某中学毕业的,你觉得这带给你什么呢?你简历上还写着二星级志愿者,能给我们讲一下你们的志愿服务吗?以及当中有什么困难你是怎么解决的?
七、 其他同学遇到的:怎样看待百度李彦宏被泼水事件?你会选择读博吗?如果和你同时毕业的同学已经年薪几十万了,你还会选择读博吗?
八、 因为没有好好准备,连自我介绍都是草草准备的,所以也没过,遇到了很多大佬,某知名会议子会议论文审稿人,ACM银牌选手,还有抱着论文来的,人均建模大赛M奖,人均六级560,面试前还有大佬在写博客,基本都是计算机或软件专业第一第二,即便双非也是挑战杯金奖等等。
大概有10个老师,会有一半多的老师提问,简历当时没带够,做你对面的和你进行英语交流,当时被通信系女主任问课程成绩之后就彻底懵了,还有对貌似也是做硬件的一个老师问了zigbee之后,问了代码量,因为本科阶段代码功底基本为0,之后感觉就是一顿胡说。
大学四年也快完了,现在找工作差不多是喝自己的洗脚水吧。

还有当时从wd论坛找的关于导师的东西。如下图
在这里插入图片描述

这篇关于同济夏令营回忆的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/371397

相关文章

令人不想回忆的DDos

免责声明:本文仅做分享!!!    目录 DDos 介绍: 常见攻击方式: 基于TCP协议的攻击 基于icmp协议的攻击 web压力测试 攻击----> 1-工具脚本 MHDDos项目 LOIC(低轨道离子炮) HOIC(高轨道离子炮) HULK OWASP HTTP POST Tors Hammer 2-在线平台 防御----> 1-高防 2-C

阿里大数据一次简单而失败的面试题回忆

一面 简单介绍一下自己以及自己做过的项目;Java HashMap 是不是线程安全的?为什么?请用 Java 写个单例模式知道几种 GC 算法?如何实现一个高效的单项列表逆向输出?数据湖和数据仓库有什么区别?详细介绍下 Flink 的 Checkpoint 执行机制(分布式快照)算法题:寻找两个正序数组的中位数 二面 如何在两个进程间共享数据?线程呢?如何在 main 函数里面等待一个线程执

【深度学习详解】Task2 分段线性模型-引入深度学习 Datawhale X 李宏毅苹果书 AI夏令营

前言 《苹果书》第一章的内容包括 机器学习基础 -> 线性模型 -> 分段线性模型 -> 引入深度学习 这一篇章我们继续后续内容 ~ 其中涉及到“激活函数”的作用理解: 除了 开源项目 - 跟李宏毅学深度学习(入门) 之外, 还有 @3Blue1Brown 的神经网络 和 @StatQuest 的深度学习 视频内容辅助。 🍎 🍎 系列文章导航 【深度学习详解】Task1 机器学习基础-

Datawhale X 李宏毅苹果书 AI夏令营 - 跟李宏毅学深度学习(入门之线性模型)

文章目录 一、线性模型是什么?二、线性模型的特点三、简单举例理解3.1、预测未来某一天点击量3.2、分段线性曲线 总结 一、线性模型是什么? 在深度学习中,线性模型是一种简单但基础且广泛应用的数学模型。它的基本形式是一个线性方程,如y = wx + b,其中y是预测输出,x是输入特征,w是权重参数,b是偏置项(也称为截距)。 线性模型假设输入与输出之间存在线性关系,即输出是输

【无标题】【Datawhale X 李宏毅苹果书 AI夏令营】批量归一化

1、批量归一化的作用 批量归一化(Batch Normalization,BN)的把误差曲面变得平滑,使训练能够得到快速收敛; 训练过程的优化:使用自适应学习率等比较进阶的优化训练方法; 训练对象的优化:批量归一化可以改变误差表面,让误差表面比较不崎岖 参数 w i w_i wi​是指训练参数或者训练的目标 1.1 特征归一化 当输入的特征,每一个维度的值,它的范围差距很大的时候,我们就可能

Datawhale X 李宏毅苹果书 AI夏令营-深度学习基础-Task3

# Datawhale AI 夏令营 夏令营手册:向李宏毅学深度学习 批量归一化 如果误差表面很崎岖,它比较难训练。而**批量归一化(Batch Normalization,BN)**的作用是把误差表面变得平滑,能够更好地训练。 在一个线性的的模型里面,当输入的特征,每一个维度的值,它的范围差距很大的时候,我们就可能产生像这样子的误差表面,就可能产生不同方向,斜率非常不同,坡度非常不同的误

【2024】Datawhale X 李宏毅苹果书 AI夏令营 Task3

本文是关于李宏毅苹果书”第2章 实践方法论“学习内容的记录。 模型在测试集上表现不佳,可能是因为模型没有充分学习训练集。模型不能充分学习训练集的原因: 模型偏差优化问题过拟合不匹配 一、模型偏差 模型偏差是指:由于模型过于简单,即便找到该模型的最优参数,模型的损失函数值实际还未达到最小。(想在海里捞针,但实际针不在海中) 此时可以通过重新设计模型、赋予模型更大灵活性降低模型偏差。 增加

Datawhale X 李宏毅苹果书 AI夏令营(深度学习 之 实践方法论)

1、模型偏差 模型偏差是指的是模型预测结果与真实值之间的差异,这种差异不是由随机因素引起的,而是由模型本身的局限性或训练数据的特性所导致的。 简单来讲,就是由于初期设定模型,给定的模型计算能力过弱,导致在通过梯度下降法进行优化以得到损失最小的函数过程中,模型表现太差,结果如同想要在大海里面捞针(一个损失低的函数),结果针根本就不在海里。 1.1、解决方案: 重新设计一个模型,给模型更大的

【Datawhale X 李宏毅苹果书 AI夏令营】《深度学习详解》Task3 打卡

文章目录 前言学习目标一、优化策略二、模型偏差三、优化问题三、过拟合增加训练集给模型一些限制 四、交叉验证五、不匹配总结 前言 本文是【Datawhale X 李宏毅苹果书 AI夏令营】的Task3学习笔记打卡。 学习目标 李宏毅老师对应视频课程:https://www.bilibili.com/video/BV1JA411c7VT?p=4 《深度学习详解》第二章主要介绍

Datawhale X 李宏毅苹果书 AI夏令营 入门 Task3-机器学习框架

目录 实践方法论1.模型偏差2.优化问题3.过拟合4.交叉验证5.不匹配 实践方法论 1.模型偏差 当一个模型由于其结构的限制,无法捕捉数据中的真实关系时,即使找到了最优的参数,模型的损失依然较高。可以通过增加输入特征、使用更复杂的模型结构或采用深度学习等方法来新设计模型,增加模型的灵活性。 2.优化问题 在机器学习模型训练过程中,即使模型的灵活性足够高,也可能由于优化算