作者 | Patric   整理 | NewBeeNLP

面试锦囊之面经分享系列,持续更新中 

【面试招聘】春招面经集合 | 腾讯/字节/华为/东芝/360/Boss_大数据

欢迎后台回复"面试"加入讨论组交流噢 

【面试招聘】春招面经集合 | 腾讯/字节/华为/东芝/360/Boss_大数据_02

写在前面

渣本渣,因为大数据方面我了解的太少了,所以在面试过程中很多关于大数据的问题我都回答不上来。

背景相关

硕士澳洲八大,IT。本科末流985,非IT。硕士因为跨专业,学的是Course Work,期间运气比较好,有机会和几位老师一起做了几项ML相关的项目,因此毕业后找的工作都是算法相关的,希望能够帮助到正在找工作的小伙伴。

面经

无论面试通过与否,都十分感谢在面试中遇到过的每一位面试官及HR小姐姐。大多数的面试官都非常nice,都在有意的引导我回答出正确答案。感觉面试比较玄学,面试过与不过,主要取决于基础知识,除此之外也取决于眼缘。

腾讯算法(一面挂)

  • 自我介绍
  • 项目细扣
  • LSTM与RNN的区别
  • 梯度消失/爆炸产生原因
  • 梯度消失解决方法
  • 梯度爆炸解决方法
  • Word2vec方法有哪些/区别
  • 集成学习了解吗
  • XGBOOST/GBDT简单介绍,区别
  • 无手撕

字节跳动算法(三面挂):

一面

  • CNN中感受野/权值共享
  • Resnet理解
  • Resnet相比全连接什么区别
  • Alexnet/VGG/Densenet/Googlenet
  • 什么是梯度消失/爆炸
  • RNN/LSTM解释
  • LSTM怎么缓解梯度消失/Resnet怎么缓解梯度消失
  • 有什么方法能解决梯度消失
  • 集成学习
  • XGBOOST理解
  • 手撕两道:
  • Two sum
  • 最长公共子序列(理解成子串-子串手撕一遍,子序列在子串基础上修改)

二面

  • 自我介绍
  • 项目细扣
  • 如何避免过拟合
  • LSTM理解
  • XGBOOST理解/损失函数/正则怎么算
  • XGBOOST与GBDT对比/ Random Forest理解/Boosting与Bagging对比
  • 为什么XGBOOST在大赛上表现很好/与GBDT相比优势
  • 手撕两道:
  • 岛屿问题
  • 编辑距离

三面

  • 自我介绍
  • TCP哪一层
  • HTTP/HTTPS区别
  • HTTPS为什么Security
  • 线程与进程
  • 锁/悲观锁乐观锁
  • 手撕一道:
  • LC Hard。题目忘记了,只记得dfs+dp,撕了20多分钟才撕出来。

360算法

一面

  • 自我介绍
  • 项目细扣
  • 特征工程
  • Precision/Recall/F-score/ROC/AUC
  • AUC计算
  • 项目为什么选用AUC和F-score,为什么不选用Recall
  • LSTM与RNN的区别
  • 梯度消失/爆炸的原因及解决方法
  • word2vec方法介绍
  • Transformer了解吗/Bert了解吗
  • 除了神经网络,传统的机器学习算法了解吗
  • Boosting和Bagging区别
  • 简单介绍下XGBOOST/GBDT
  • XGBOOST和GBDT区别
  • SVM/SVM核函数
  • 无手撕

二面

  • 自我介绍
  • 项目细扣
  • Precision/Recall/F-score/ROC/AUC
  • LSTM与RNN
  • CNN中怎么做的卷积/卷积的优势/卷积之后接什么层/为什么做pooling/都有哪些pooling
  • 卷积层/Pooling层(mean/max)的反向传播
  • 卷积层参数量计算
  • 梯度消失/解决方法
  • Resnet
  • XGBOOST/GBDT/SVM/RF
  • 特征工程
  • 学过什么课/看了下成绩单
  • MapReduce/Spark/Hive
  • Mit6.824
  • 手撕一道:
  • 记不太清了,没有Hard那么费劲,应该是Medium/Easy难度。

HR面

  • 自我介绍
  • 跨专业/Gap一年干什么了
  • 爱好等个人问题
  • 城市选择
  • 部门选择理由
  • 期望薪资
  • 入职时间

华为硬件研究院算法(一面挂)

一面

  • 自我介绍
  • 部门介绍
  • 岗位不太相符/为什么选择
  • 各基本算法理解/时间空间复杂度
  • 口述链表翻转
  • 手撕两道:
  • 二分
  • 堆排序

东芝语音识别算法

一面

  • 自我介绍
  • CNN/RNN/LSTM理解
  • SVM/RF理解
  • Precision/Recall/F-scor/ROC/AUC
  • 语音识别算法
  • 特征工程 -无手撕

笔试

  • 前四道题都不难,LC Easy难度
  • Python Keras 搭一个基本的CNN

二面(全程英文)

  • 自我介绍
  • 为什么选择东芝
  • 澳洲生活
  • 入职时间

花椒直播算法

一面

  • 自我介绍
  • 项目细扣
  • 激活函数/比较
  • RNN理解
  • LSTM门控/作用/各门的激活函数选择原因
  • SGD/BGD/momentum/Adam对比
  • Adam优点
  • Resnet理解
  • CNN各种模块/名词解释
  • 梯度消失/爆炸的原因/缓解方法/解决方法
  • 常用的语言/库/tensorflow-Keras/Theano/Pytorch
  • 卷积层/Pooling层/dense层细扣
  • 集成学习/Boosting/Bagging
  • XGBOOST/GBDT/Random Forest
  • XGBOOST的损失函数
  • XGBOOST怎么避免过拟合/ XGBOOST正则
  • 随机森林的随机性体现在哪儿
  • LR/SVM理解
  • SVM核函数/作用
  • Wrangling/项目Wrangling解释
  • 无手撕

二面(相当帅的一个小哥哥/眼睛带笑)

  • 自我介绍
  • 项目细扣
  • Word2vec理解/CBOW和Skip-gram对比
  • Bert
  • SVM理解/手推(太久没看了没推出来)
  • LR手推
  • XGBOOST/GBDT/Random Forest
  • 各模型参数解释/不同场合不同参数的影响
  • RNN/LSTM理解/对比
  • LSTM的方向传播
  • Kaggle比赛中LSTM及GRU的选择
  • CNN细扣
  • 手撕一道:二分

Boss直聘算法

一面(面试官小姐姐很好看)

  • 自我介绍等
  • 项目细扣/各种参数/方法/架构等设置及原因(非常非常细)
  • 主要是关于大数据方面的考核,这方面并不擅长。
  • 手撕一道:大数据相关的题

面试官小姐姐非常非常nice。大数据并不擅长,小姐姐一直在引导我,人也很美!

二面

  • 自我介绍
  • 项目细扣
  • Word2vec理解/CBOW和Skip-gram对比
  • Bert
  • SVM
  • XGBOOST/GBDT/Random Forest
  • 激活函数
  • Optimizer对比
  • Adam优点
  • LSTM/RNN
  • 梯度消失/爆炸
  • 项目细扣
  • 无手撕

三面

  • 自我介绍
  • 项目细扣
  • 各种真实场景下的解决思路/例如做推荐都需要哪些特征,每种特征该怎么得到
  • 无手撕

HR面

  • 直切主题,很干脆,nice!

尾巴

以上列出的是我能回忆起的比较有代表性的面试,其他公司例如其他互联网企业或国企银行等,如果有小伙伴需要也可以告诉我。除此之外,以上列出的面试经历也有很多问题记不太清了,可能或有一定程度的缺失。

希望大家都能拿到心仪的offer,也希望大家在日后的工作中更加努力,加油,加油,加油!

END -

【面试招聘】春招面经集合 | 腾讯/字节/华为/东芝/360/Boss_大数据_03