【导读】2020秋招在即,今天给大家推荐一个十分详细全面的秋招求职面试资料合集。该资源,整理了300多道算法岗位相关的面试题目并给出了详细的答案,涉及算法基础知识、推荐系统、机器学习、深度学习、自然语言处理、数学基础知识、数据预处理等相关问题,由互联网一线资深的面试官整理,非常值得深入学习,温故而知新。(文末提供下载方式)
资源目录如下:
基础概念
-
方差和偏差
-
-
解释方差
-
解释偏差
-
模型训练为什么要引入偏差和方差?请理论论证
-
什么情况下引发高方差
-
如何解决高方差问题
-
以上方法是否一定有效
-
如何解决高偏差问题
-
以上方法是否一定有效
-
遇到过的机器学习中的偏差与方差问题
-
就理论角度论证Bagging、Boosting的方差偏差问题
-
遇到过的深度学习中的偏差与方差问题
-
方差、偏差与模型的复杂度之间的关系
-
-
生成与判别模型
-
-
什么叫生成模型
-
什么叫判别模型
-
什么时候会选择生成/判别模型
-
CRF/朴素贝叶斯/EM/最大熵模型/马尔科夫随机场/混合高斯模型
-
我的理解
-
-
先验概率和后验概率
-
-
写出全概率公式&贝叶斯公式
-
说说你怎么理解为什么有全概率公式&贝叶斯公式
-
什么是先验概率
-
什么是后验概率
-
经典概率题
-
-
频率概率
-
-
极大似然估计 - MLE
-
最大后验估计 - MAP
-
极大似然估计与最大后验概率的区别
-
到底什么是似然什么是概率估计
-
-
AutoML
-
-
AutoML问题构成
-
特征工程选择思路
-
模型相关的选择思路
-
常见梯度处理思路
-
AutoML参数选择所使用的方法
-
讲讲贝叶斯优化如何在automl上应用
-
以高斯过程为例,超参搜索的f的最优解求解acquisition function有哪些
-
高斯过程回归手记
-
AutoSklearn详解手记
-
AutoML常规思路手记
-
数学
-
数据质量
-
-
期望
-
方差
-
标准差
-
协方差
-
相关系数
-
-
最大公约数问题
-
-
辗转相除法
-
其他方法
-
-
牛顿法
-
-
迭代公式推导
-
实现它
-
-
拟牛顿法
-
概率密度分布
-
-
均匀分布
-
伯努利分布
-
二项分布
-
高斯分布
-
拉普拉斯分布
-
泊松分布
-
-
平面曲线的切线和法线
-
-
平面曲线的切线
-
平面曲线的法线
-
-
导数
-
-
四则运算
-
常见导数
-
复合函数的运算法则
-
莱布尼兹公式
-
-
微分中值定理
-
-
费马定理
-
拉格朗日中值定理
-
柯西中值定理
-
-
泰勒公式
-
-
泰勒公式
-
-
欧拉公式
-
-
欧拉公式
-
-
矩阵
-
-
范数
-
特征值分解,特征向量
-
正定性
-
-
概率论
-
-
条件概率
-
独立
-
概率基础公式
-
全概率
-
贝叶斯
-
切比雪夫不等式
-
抽球
-
纸牌问题
-
棍子/绳子问题
-
贝叶斯题
-
选择时间问题
-
0~1均匀分布的随机器如何变化成均值为0,方差为1的随机器
-
抽红蓝球球
-
机器学习
-
聚类
-
-
请问从EM角度理解kmeans
-
为什么kmeans一定会收敛
-
kmeans初始点除了随机选取之外的方法
-
-
线性回归
-
-
损失函数是啥
-
最小二乘/梯度下降手推
-
介绍一下岭回归
-
什么时候使用岭回归
-
什么时候用Lasso回归
-
-
逻辑回归
-
-
logistic分布函数和密度函数,手绘大概的图像
-
LR推导,基础5连问
-
梯度下降如何并行化
-
LR明明是分类模型为什么叫回归
-
为什么LR可以用来做CTR预估
-
满足什么样条件的数据用LR最好
-
LR为什么使用sigmoid函数作为激活函数?其他函数不行吗
-
利用几率odds的意义在哪
-
Sigmoid函数到底起了什么作用
-
LR为什么要使用极大似然函数,交互熵作为损失函数?那为什么不选平方损失函数的呢
-
LR中若标签为+1和-1,损失函数如何推导?
-
如果有很多的特征高度相关或者说有一个特征重复了100遍,会造成怎样的影响
-
为什么要避免共线性
-
LR可以用核么?可以怎么用
-
LR中的L1/L2正则项是啥
-
lr加l1还是l2好
-
正则化是依据什么理论实现模型优化
-
LR可以用来处理非线性问题么
-
为什么LR需要归一化或者取对数
-
为什么LR把特征离散化后效果更好?离散化的好处有哪些
-
逻辑回归估计参数时的目标函数逻辑回归的值表示概率吗
-
LR对比万物
-
LR梯度下降方法
-
LR的优缺点
-
除了做分类,你还会用LR做什么
-
你有用过sklearn中的lr么?你用的是哪个包
-
看过源码么?为什么去看
-
谈一下sklearn.linear_model.LogisticRegression中的penalty和solver的选择
-
谈一下sklearn.linear_model.LogisticRegression中对多分类是怎么处理的
-
我的总结
-
-
决策树
-
-
常见决策树
-
简述决策树构建过程
-
详述信息熵计算方法及存在问题
-
详述信息增益计算方法
-
详述信息增益率计算方法
-
解释Gini系数
-
ID3存在的问题
-
C4.5相对于ID3的改进点
-
CART的连续特征改进点
-
CART分类树建立算法的具体流程
-
CART回归树建立算法的具体流程
-
CART输出结果的逻辑
-
CART树算法的剪枝过程是怎么样的
-
树形结构为何不需要归一化
-
决策树的优缺点
-
-
贝叶斯
-
-
解释一下朴素贝叶斯中考虑到的条件独立假设
-
讲一讲你眼中的贝叶斯公式和朴素贝叶斯分类差别
-
朴素贝叶斯中出现的常见模型有哪些
-
出现估计概率值为 0 怎么处理
-
朴素贝叶斯的优缺点
-
朴素贝叶斯与 LR 区别
-
-
随机森林
-
-
解释下随机森林
-
随机森林用的是什么树
-
随机森林的生成过程
-
解释下随机森林节点的分裂策略
-
随机森林的损失函数是什么
-
为了防止随机森林过拟合可以怎么做
-
随机森林特征选择的过程
-
是否用过随机森林,有什么技巧
-
RF的参数有哪些,如何调参
-
RF的优缺点
-
-
集成学习
-
-
介绍一下Boosting的思想
-
最小二乘回归树的切分过程是怎么样的
-
有哪些直接利用了Boosting思想的树模型
-
gbdt和boostingtree的boosting分别体现在哪里
-
gbdt的中的tree是什么tree?有什么特征
-
常用回归问题的损失函数
-
常用分类问题的损失函数
-
什么是gbdt中的残差的负梯度
-
如何用损失函数的负梯度实现gbdt
-
拟合损失函数的负梯度为什么是可行的
-
即便拟合负梯度是可行的,为什么不直接拟合残差?拟合负梯度好在哪里
-
Shrinkage收缩的作用
-
feature属性会被重复多次使用么
-
gbdt如何进行正则化的
-
为什么集成算法大多使用树类模型作为基学习器?或者说,为什么集成学习可以在树类模型上取得成功
-
gbdt的优缺点
-
gbdt和randomforest区别
-
GBDT和LR的差异
-
xgboost对比gbdt/boosting Tree有了哪些方向上的优化
-
xgboost和gbdt的区别
-
xgboost优化目标/损失函数改变成什么样
-
xgboost如何使用MAE或MAPE作为目标函数
-
xgboost如何寻找分裂节点的候选集
-
xgboost如何处理缺失值
-
xgboost在计算速度上有了哪些点上提升
-
xgboost特征重要性是如何得到的
-
xGBoost中如何对树进行剪枝
-
xGBoost模型如果过拟合了怎么解决
-
xgboost如何调参数
-
XGboost缺点
-
LightGBM对Xgboost的优化
-
LightGBM亮点
-
-
FM/FFM
-
SVM
-
-
简单介绍SVM
-
什么叫最优超平面
-
什么是支持向量
-
SVM 和全部数据有关还是和局部数据有关
-
加大训练数据量一定能提高SVM准确率吗
-
如何解决多分类问题
-
可以做回归吗,怎么做
-
SVM 能解决哪些问题
-
介绍一下你知道的不同的SVM分类器
-
什么叫软间隔
-
SVM 软间隔与硬间隔表达式
-
SVM原问题和对偶问题的关系/解释原问题和对偶问题
-
为什么要把原问题转换为对偶问题
-
为什么求解对偶问题更加高效
-
alpha系数有多少个
-
KKT限制条件,KKT条件有哪些,完整描述
-
引入拉格朗日的优化方法后的损失函数解释
-
核函数的作用是啥
-
核函数的种类和应用场景
-
如何选择核函数
-
常用核函数的定义
-
核函数需要满足什么条件
-
为什么在数据量大的情况下常常用lr代替核SVM
-
高斯核可以升到多少维?为什么
-
SVM和逻辑斯特回归对同一样本A进行训练,如果某类中增加一些数据点,那么原来的决策边界分别会怎么变化
-
各种机器学习的应用场景分别是什么?例如,k近邻,贝叶斯,决策树,svm,逻辑斯蒂回归
-
Linear SVM 和 LR 有什么异同
-
深度学习
-
dropout
-
batch_normalization
-
-
你觉得bn过程是什么样的
-
手写一下bn过程
-
知道LN么?讲讲原理
-
-
bp过程
-
embedding
-
softmax
-
梯度消失/爆炸
-
残差网络
-
-
介绍残差网络
-
残差网络为什么能解决梯度消失的问题
-
残差网络残差作用
-
你平时有用过么?或者你在哪些地方遇到了
-
-
Attention
-
-
Attention对比RNN和CNN,分别有哪点你觉得的优势
-
写出Attention的公式
-
解释你怎么理解Attention的公式的
-
Attention模型怎么避免词袋模型的顺序问题的困境的
-
Attention机制,里面的q,k,v分别代表什么
-
为什么self-attention可以替代seq2seq
-
维度与点积大小的关系是怎么样的,为什么使用维度的根号来放缩
-