第二门有挂科风险的考试
上午刚考完
这门课程考核方式第一次改为考试
所以没有复习资料
还有一点记忆赶紧记录一下
明年重修的时候就有复习材料了
1月6日 孙院士和张院士补充了部分判断题

简答
1. 朴素贝叶斯和感知机基本思想与异同
2. 简述SVM
3.分类和回归的异同
4.硬约束的SVM和软约束的SVM在数据是线性可分的情形下结果有何异同


判断

MLE和MAP都是把θ当成随机变量
在逻辑回归模型里牛顿法一定会得到全局最优解
True Bayes…
AdaGard每一个feature都有独立的学习率
在训练集有小于10%的错误率 在测试集一定不会有100%的错误率
KNN在高维数据的低维流形下不能得到正确的结果

。。。其他的暂时想不起来了


计算&证明

1.使用最大似然估计最大的参数a
机器学习复习笔记-华中科技大学_牛顿法
机器学习复习笔记-华中科技大学_感知机_02
机器学习复习笔记-华中科技大学_牛顿法_03
数据机器学习复习笔记-华中科技大学_感知机_04相互独立

2.使用3-NN算法求解
在5X5的网格中标出
机器学习复习笔记-华中科技大学_感知机_05
机器学习复习笔记-华中科技大学_感知机_06
1在网格中标出数据
2写出3-NN算法的具体过程
3标出不同标签的分类边界

3求一个一个感知机的分类超平面,并且预测机器学习复习笔记-华中科技大学_数据_07
机器学习复习笔记-华中科技大学_感知机_08
机器学习复习笔记-华中科技大学_牛顿法_09
机器学习复习笔记-华中科技大学_感知机_10
机器学习复习笔记-华中科技大学_数据_11
机器学习复习笔记-华中科技大学_数据_12
具体的数据可能有错误