您的位置:首页 > 科技 > 能源 > 【推研小灶】复旦与南大之间:一次独特的计算机保研之旅

【推研小灶】复旦与南大之间:一次独特的计算机保研之旅

2024/11/16 3:48:32 来源:https://blog.csdn.net/gradlight/article/details/140724125  浏览:    关键词:【推研小灶】复旦与南大之间:一次独特的计算机保研之旅

写在前面

上午10点填完志愿等待复试通知,利用这段时间记录一下我简短的夏令营和预推免。今年变为线下之后,部分学校的入营情况、考核方式有明显变化。加上CS方向保研名额总体变多,形势有点小乱,甚至填报系统都在9.29中秋节当天,各校的wl总体也比往年坚挺许多。我因为学校的一些安排,许多入围的夏令营没能参加,最终只参加了南大AI的夏令营和复旦CS的预推免。这里简单记录一下参营的过程,希望这篇小记能给学弟学妹们提供一点参考。

01

我的保研奋斗历程

01

个人情况

本科情况:中流985电子信息小班

成绩排名:rk3,因为是小班百分比只有10%

英语成绩:四级600+ 六级550+

竞赛经历:美赛H、大英赛三等

科研成果:无,仅有一段大创负责人经历

意向方向:NLP\多模态 > 其他AI方向,最好硕士,导师特别好的情况接受直博

最终去向:南京大学AI学硕

02

前期准备

高瓴学硕、上交学硕这种往年超高bar的营也放了本菜鸡进去,虽说是惊喜了一阵,但最后因为学校安排的生产实习课程不允许请假,我也没有提前申请用其他实习来抵,协商了很多次也没有解决,最终也只能放弃参加这些夏令营,虽说即使参加也很难优营,但失去争取的机会也还是有点遗憾吧。这里也是用自己的经历提醒各位,所有可能与夏令营冲突的事情一定提前掌握,提前处理

02

保研经历

01

南大AI

南大AI的夏令营体验还是很不错的,第一天下午报道,第二天上午机试+笔试,下午是宣讲+茶歇,茶歇期间可以去意向导师办公室面谈,第三天是专业面试。

报道:发了餐券和胸牌,晚上买了半个西瓜吃,讨个好兆头(bushi)。

机试&笔试:共2小时,笔试考察数据结构、机器学习、概率论等内容。机试分为数据结构+机器学习两部分,数据结构考的直接是leetcode原题,机器学习需要用numpy实现KNN的主体部分。

宣讲&茶歇:宣讲主要是南大AI院各课题组老师介绍组内情况、研究方向和学生去向等。茶歇时间有很多甜点、水果和饮料,可以自助,这段时间也可以去办公室找老师面谈。

专业面试:每人12分钟左右,流程是英文问答、机器学习基础、数学及闲聊。面试结束后完成所有夏令营环节,需要在考核结束后20天内上传带有意向导师签字的申请表。

02

中山大学

复旦CS预推免流程是:第一天上午机考,晚上填报志愿,第二天英语口试,第三天专业面试。

机考:时间2小时,共5道题,主要是数据结构与算法题目。我最终只做出来2道半,考察了模拟、滑窗、最短路、动态规划等。

英语口语:时长约5分钟,问到的问题包括自我介绍、大创项目介绍、与他人意见不合时的处理方式等。

专业面试:每人约15分钟,面试老师有英语口语和机试的成绩,根据这些成绩可能会有相关的问题。涉及的知识点包括排序稳定性、堆栈和队列基本概念、二叉树遍历和图的连通性判断方法等。

04

人工智能常见面试真题整理

01

计算机视觉

Q

如何理解卷积神经网络中的池化层作用?

A

池化层用于下采样,通过取局部区域内的最大值或平均值来减少特征图的尺寸,同时保留重要信息,降低计算量和防止过拟合。

Q

什么是数据增强,如何在图像处理中应用?

A

数据增强是一种通过随机改变图像的亮度、对比度、旋转、裁剪等方式,生成新的训练样本的方法,有助于提高模型的泛化能力。

Q

ResNet网络中的跳跃连接如何解决梯度消失问题?

A

跳跃连接通过直接将输入传递到后面的层,允许梯度直接通过这些连接反向传播,有效缓解梯度消失问题,帮助训练更深的网络。

02

机器学习

Q

KNN算法原理

A

KNN通过计算样本与已知样本的距离,选择最近的K个样本的类别进行分类。常用的距离度量方法有欧氏距离和曼哈顿距离。

Q

随机森林与决策树的区别?

A

随机森林由多棵决策树组成,通过对每棵树进行训练并结合它们的预测结果提高模型的稳定性和准确性,减少过拟合风险。

Q

如何选择模型的正则化参数?

A

通过交叉验证的方法选择正则化参数,在训练集和验证集上进行多次实验,选择使模型在验证集上表现最好的参数

03

自然语言处理

Q

什么是词向量,如何生成?

A

词向量是将单词表示为实数向量的方法,常用的生成方法包括Word2Vec、GloVe等,通过在大规模文本语料上训练获得词的向量表示。

Q

LSTM与GRU的区别?

A

LSTM有三个门(输入门、遗忘门、输出门),而GRU只有两个门(更新门、重置门),GRU结构相对简单,计算量更小,但在某些任务上性能略逊于LSTM。

Q

Transformer架构的优势是什么?

A

Transformer利用自注意力机制建模全局依赖关系,具备并行计算能力,相比传统的RNN和LSTM,训练效率更高,适用于大规模数据和复杂任务

以上就是学长的经验分享,这些干货全部收录于我们的保研资料中,想要获取更多保研干货,可以看看我们新推出的《轻保研·一步到位资料包》

05

总结

从4月开始准备保研到今天也终于尘埃落定,南大也是我高中时期的梦校,最终去向的课题组研究方向和组内氛围也令人满意。感谢一直支持我的父母和同学,还有辅导员,在保研路上提供了许多建议和帮助,也感谢各位撰写经验帖的学长学姐。希望未来的几年能有所成就,也祝各位学弟学妹取得满意的offer~

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com