本文主要是介绍面了百度 CV 算法岗(实习)三轮,我要上岸了,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
节前,我们星球组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂朋友、参加社招和校招面试的同学,针对算法岗技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备、面试常考点分享等热门话题进行了深入的讨论。
今天分享一个去百度实习的球友的面经,喜欢技术交流,可以文末加入我们,记得收藏、点赞、关注我们。
说实话,今年找个实习太难了,大环境不好,岗位太少了,在星球感谢各位大佬的辅导,今天我也分享一下我们的面经。
百度是我年初找日常实习的第一个大厂,之前还面了唯品会,小红书等公司,很惊喜这几个都顺利拿到了实习offer。
最终我还是去百度实习,今天把面试题分享出来,给广大焦虑的同学一些真实经验。需要交流,可以在星球来撩。
一面
简单自我介绍
介绍一下论文,面试官详细问了根据伪标签置信度,和样本难度设计课程学习的实现方式,让写了个伪代码。
论文里提到有用 attention,介绍一下 attention 的,有哪些以及原理?
论文是你自己完成的还是有和其他团队合作?过拟合的表现有哪些?BN训练和测试的区别在哪里?梯度下降的公式?
代码考察
1、写一下softmax函数?这里面如果xi很大会出,现指数上溢问题,怎么修改代码?
2、基于1,把softmax写成一个class,并实现,forward()和backward()?这里的backward()让我,现在纸上推导梯度,推了后草稿纸给他看了,让我补充梯度情况。然后代码实现
3、leetcode题:最大连续子数组和
二面
介绍一下多模态检索比赛,
比赛里的 MeanRecall 指标怎么算的?只有这一个指标吗
讲一下比赛用到的gradientcheckpoints节省内存,的原理是啥?时间换空间,前向时只存部分节点的,激活值,反向时重新计算需要的节点激活值
讲一下混合精度训练的原理
介绍一下CLIP模型?两个方面,文本作为视觉的,监督信号进行预训练,zero-shot比较强大使得想,要预测的图片类别不再局限于预训练的label
说说你认为CLIP为什么会这么强大?答:训练数,据来源是大量(几十亿)的Weblmage及文本对,所,以数据来源比较广泛;还有对比学习这种代理任务,比较简洁,可以使模型专注于学习两种模态数据的,对齐能力,你比赛成绩排在第五,和前几名的差距在哪里?,
代码考察,
1、leetcode原题 课程表二
2、leetcode原题 两链表求和,把结果存在新链表。开始用了暴力方法,面试官说不使用额外空,间怎么做,于是遍历链表逐元素相加并考虑进位
三面
部门经理面:
问了问什么时候来实习,能实习多久?
怎么克服导师那边的事儿,如果技术不太匹配,做的偏图像检索和他们的3D,视觉不太合,怎么解决?
与前两轮面试官交流感觉怎么样
反问:部门还有实习生hc吗?
技术交流群
前沿技术资讯、算法交流、求职内推、算法竞赛、面试交流(校招、社招、实习)等、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企开发者互动交流~
我们建了算法岗技术与面试交流群, 想要大模型技术交流、了解最新面试动态的、需要源码&资料、提升技术的同学,可以直接加微信号:mlc2040。加的时候备注一下:研究方向 +学校/公司+CSDN,即可。然后就可以拉你进群了。
想加入星球也可以如下方式:
方式①、微信搜索公众号:机器学习社区,后台回复:星球
方式②、添加微信号:mlc2040,备注:星球
面试精选
-
一文搞懂 Transformer
-
一文搞懂 Attention(注意力)机制
-
一文搞懂 Self-Attention 和 Multi-Head Attention
-
一文搞懂 BERT(基于Transformer的双向编码器)
-
一文搞懂 GPT(Generative Pre-trained Transformer)
-
一文搞懂 Embedding(嵌入)
-
一文搞懂 Encoder-Decoder(编码器-解码器)
-
一文搞懂大模型的 Prompt Engineering(提示工程)
-
一文搞懂 Fine-tuning(大模型微调)
-
一文搞懂 LangChain
-
一文搞懂 LangChain 的 Retrieval 模块
-
一文搞懂 LangChain 的智能体 Agents 模块
-
一文搞懂 LangChain 的链 Chains 模块
这篇关于面了百度 CV 算法岗(实习)三轮,我要上岸了的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!