关于这些概念看过很多次了,但一直都记不住,索性用笔记形式记下来备查吧。1. 熵Entropy关于熵的基本概念就不说了,可以认为是用来描述随机变量的不确定性,也可以说是用来描述随机变量平均信息量(信息量用编码长度表示,熵即为编码长度的期望形式)。公式如下:H(X)=∑x∈Xp(x)logap(x)当a=2时,即熵的单位为比特。可以看到,当有必然事件p(x)=1发生时,熵值达到最小值0;当所有概率均相
(一)SVM的了解支持向量机(SupportVectorMachine)是Cortes和Vapnik于1995年首先提出的,它在解决小样本、非线性及高维模式识别中表现出许多特有的优势,并能够推广应用到函数拟合等其他机器学习问题中[10]。支持向量机方法是建立在统计学习理论的VC维理论和结构风险最小原理基础上的,根据有限的样本信息在模型的复杂性(即对特定训练样本的学习精度,Accuracy)和学习能
机器学习知识点学习http://blog.csdn.net/zouxy09在学习机器学习的有关知识时,搜索到JerryLead的cnblog中的MachineLearning专栏,里面对于机器学习的部分算法和知识点讲解地很经典和透彻。所以Mark在这,多多学习!偏最小二乘法回归(增强学习(线性判别分析(ICA主成分分析(在线学习((EM算法)TheEMAlgorithmMixturesofGaus
编程语言:搞实验个人认为当然matlab最灵活了(但是正版很贵),但是更为前途的是python(numpy+scipy+matplotlib)和C/C++,这样组合既可搞研究,也可搞商业开发,易用性不比matlab差,功能组合更为强大,个人认为,当然R和java也不错.1.机器学习开源软件网(收录了各种机器学习的各种编程语言学术与商业的开源软件)http://mloss.org2偶尔找到的机器学习
Copyright © 2005-2024 51CTO.COM 版权所有 京ICP证060544号