作者 | Patric 整理 | NewBeeNLP
面试锦囊之面经分享系列,持续更新中
欢迎后台回复"面试"加入讨论组交流噢
写在前面
渣本渣,因为大数据方面我了解的太少了,所以在面试过程中很多关于大数据的问题我都回答不上来。
背景相关
硕士澳洲八大,IT。本科末流985,非IT。硕士因为跨专业,学的是Course Work,期间运气比较好,有机会和几位老师一起做了几项ML相关的项目,因此毕业后找的工作都是算法相关的,希望能够帮助到正在找工作的小伙伴。
面经
无论面试通过与否,都十分感谢在面试中遇到过的每一位面试官及HR小姐姐。大多数的面试官都非常nice,都在有意的引导我回答出正确答案。感觉面试比较玄学,面试过与不过,主要取决于基础知识,除此之外也取决于眼缘。
腾讯算法(一面挂)
- 自我介绍
- 项目细扣
- LSTM与RNN的区别
- 梯度消失/爆炸产生原因
- 梯度消失解决方法
- 梯度爆炸解决方法
- Word2vec方法有哪些/区别
- 集成学习了解吗
- XGBOOST/GBDT简单介绍,区别
- 无手撕
字节跳动算法(三面挂):
一面
- CNN中感受野/权值共享
- Resnet理解
- Resnet相比全连接什么区别
- Alexnet/VGG/Densenet/Googlenet
- 什么是梯度消失/爆炸
- RNN/LSTM解释
- LSTM怎么缓解梯度消失/Resnet怎么缓解梯度消失
- 有什么方法能解决梯度消失
- 集成学习
- XGBOOST理解
- 手撕两道:
- Two sum
- 最长公共子序列(理解成子串-子串手撕一遍,子序列在子串基础上修改)
二面
- 自我介绍
- 项目细扣
- 如何避免过拟合
- LSTM理解
- XGBOOST理解/损失函数/正则怎么算
- XGBOOST与GBDT对比/ Random Forest理解/Boosting与Bagging对比
- 为什么XGBOOST在大赛上表现很好/与GBDT相比优势
- 手撕两道:
- 岛屿问题
- 编辑距离
三面
- 自我介绍
- TCP哪一层
- HTTP/HTTPS区别
- HTTPS为什么Security
- 线程与进程
- 锁/悲观锁乐观锁
- 手撕一道:
- LC Hard。题目忘记了,只记得dfs+dp,撕了20多分钟才撕出来。
360算法
一面
- 自我介绍
- 项目细扣
- 特征工程
- Precision/Recall/F-score/ROC/AUC
- AUC计算
- 项目为什么选用AUC和F-score,为什么不选用Recall
- LSTM与RNN的区别
- 梯度消失/爆炸的原因及解决方法
- word2vec方法介绍
- Transformer了解吗/Bert了解吗
- 除了神经网络,传统的机器学习算法了解吗
- Boosting和Bagging区别
- 简单介绍下XGBOOST/GBDT
- XGBOOST和GBDT区别
- SVM/SVM核函数
- 无手撕
二面
- 自我介绍
- 项目细扣
- Precision/Recall/F-score/ROC/AUC
- LSTM与RNN
- CNN中怎么做的卷积/卷积的优势/卷积之后接什么层/为什么做pooling/都有哪些pooling
- 卷积层/Pooling层(mean/max)的反向传播
- 卷积层参数量计算
- 梯度消失/解决方法
- Resnet
- XGBOOST/GBDT/SVM/RF
- 特征工程
- 学过什么课/看了下成绩单
- MapReduce/Spark/Hive
- Mit6.824
- 手撕一道:
- 记不太清了,没有Hard那么费劲,应该是Medium/Easy难度。
HR面
- 自我介绍
- 跨专业/Gap一年干什么了
- 爱好等个人问题
- 城市选择
- 部门选择理由
- 期望薪资
- 入职时间
华为硬件研究院算法(一面挂)
一面
- 自我介绍
- 部门介绍
- 岗位不太相符/为什么选择
- 各基本算法理解/时间空间复杂度
- 口述链表翻转
- 手撕两道:
- 二分
- 堆排序
东芝语音识别算法
一面
- 自我介绍
- CNN/RNN/LSTM理解
- SVM/RF理解
- Precision/Recall/F-scor/ROC/AUC
- 语音识别算法
- 特征工程 -无手撕
笔试
- 前四道题都不难,LC Easy难度
- Python Keras 搭一个基本的CNN
二面(全程英文)
- 自我介绍
- 为什么选择东芝
- 澳洲生活
- 入职时间
花椒直播算法
一面
- 自我介绍
- 项目细扣
- 激活函数/比较
- RNN理解
- LSTM门控/作用/各门的激活函数选择原因
- SGD/BGD/momentum/Adam对比
- Adam优点
- Resnet理解
- CNN各种模块/名词解释
- 梯度消失/爆炸的原因/缓解方法/解决方法
- 常用的语言/库/tensorflow-Keras/Theano/Pytorch
- 卷积层/Pooling层/dense层细扣
- 集成学习/Boosting/Bagging
- XGBOOST/GBDT/Random Forest
- XGBOOST的损失函数
- XGBOOST怎么避免过拟合/ XGBOOST正则
- 随机森林的随机性体现在哪儿
- LR/SVM理解
- SVM核函数/作用
- Wrangling/项目Wrangling解释
- 无手撕
二面(相当帅的一个小哥哥/眼睛带笑)
- 自我介绍
- 项目细扣
- Word2vec理解/CBOW和Skip-gram对比
- Bert
- SVM理解/手推(太久没看了没推出来)
- LR手推
- XGBOOST/GBDT/Random Forest
- 各模型参数解释/不同场合不同参数的影响
- RNN/LSTM理解/对比
- LSTM的方向传播
- Kaggle比赛中LSTM及GRU的选择
- CNN细扣
- 手撕一道:二分
Boss直聘算法
一面(面试官小姐姐很好看)
- 自我介绍等
- 项目细扣/各种参数/方法/架构等设置及原因(非常非常细)
- 主要是关于大数据方面的考核,这方面并不擅长。
- 手撕一道:大数据相关的题
面试官小姐姐非常非常nice。大数据并不擅长,小姐姐一直在引导我,人也很美!
二面
- 自我介绍
- 项目细扣
- Word2vec理解/CBOW和Skip-gram对比
- Bert
- SVM
- XGBOOST/GBDT/Random Forest
- 激活函数
- Optimizer对比
- Adam优点
- LSTM/RNN
- 梯度消失/爆炸
- 项目细扣
- 无手撕
三面
- 自我介绍
- 项目细扣
- 各种真实场景下的解决思路/例如做推荐都需要哪些特征,每种特征该怎么得到
- 无手撕
HR面
- 直切主题,很干脆,nice!
尾巴
以上列出的是我能回忆起的比较有代表性的面试,其他公司例如其他互联网企业或国企银行等,如果有小伙伴需要也可以告诉我。除此之外,以上列出的面试经历也有很多问题记不太清了,可能或有一定程度的缺失。
希望大家都能拿到心仪的offer,也希望大家在日后的工作中更加努力,加油,加油,加油!
- END -