时间真快,10周的课程就已经结束了
十周,8个programming exercise,18个quiz,感谢
看着长长地视频列表,心中有些小小的成就感,在此感谢coursera提供的课程,感谢Andrew教授的精彩课程,为我打开了机器学习这扇大门
还是先简单说说最后一周的内容吧,首先是Large Scale Machine Learning ,即讲机器学习算法如何应对大量的数据,总结下来就是以下几点:
1.Stochastic Gradient Descent
随机的梯度下降算法,每次用一个样例进行梯度下降,虽然不会严格地趋近于最优值,但是会十分接近,以至于可以很好的应用于实际。
2.Mini-Batch Gradient Descent (6 min)
介于Stochastic Gradient Descent和Batch Gradient Descent 之间的一个算法,即每次迭代时使用一部分样例进行计算,一般选择20-100,可以说上面两种算法就是特殊情况下的Mini-Batch Gradient Descent。
3.绘制以迭代次数为x轴的图像,以此来确定算法是否使用大量的数据进行更好的计算。
4.在线学习,即你有一个持续的样例来源,你可以只使用一次这个样例,参考许多网站的用户行为分析。
5.Map Reduce,其实是很重要的一个思想,大概就是云计算的思想,把计算分配到不同的计算机上进行整合。
最后给出了一个应用的样例,OCR (Optical Character Recognition),大概讲了一个项目的整合和分析,相当精彩。
课程总结和计划:
接下来准备学习PGM,可能赶不上课程的deadline,但是不会为了最后的分数而学习,看了第一周的课程,感觉还不错,不愧是斯坦福的。NNML就比较不行了,这个很难继续下去。另外买了《PRML》-影印版,原版太贵。。。,准备开始啃,加油!另外可以想想做点小东西,或者在http://www.kaggle.com/学习一下。
最后,真心感谢Andrew Ng.谢谢