1.warmUpExercise: 2.Computing Cost: 3.Gradient Desecnt: 换成矩阵的形式操作;
1.Feature Normalization: 归一化的处理 2. Computing Cost (for Multiple Variables) && Gradient Descent (for Multiple Variables) 由于我们单变量的时候就是用矩阵形式处理的,所以代码与单变量相
1.lrCostFunction: 和第三周的那个一样的; 2.oneVsAll 注意的一点是: fmincg中的 initial_theta为列向量,所以需要转置一下; 3.PredictOneVSAll 4.predict
该算法主要是处理关联分析的; 大多书上面都会介绍,这里就不赘述了;
必要的注释已经写在code里面了;
1.Sigmoid Gradient 2.nnCostFunction 这是一道综合问题; Ⅰ:计算代价函数J(前向传播) Ⅱ:BackPropagation Ⅲ:正则化;
1.linearRegCostFunction: 2.learningCuvers 3.polyFeatures 4.ValidationCurve
1.Gaussian Kernel 2.Example Dataset 3 3.Vocabulary List 4.emailFeatures
1.findClosestCentroids 2.computerCentroids 3.pca 4.projectData 5.recoverData
1. Sigmoid function 2. Logistic Regression Cost & Logistic Regression Gradient 首先可以将h(x)表示出来 sigmoid函数 然后对于gredient(j)来说, 可以现在草稿纸上把矩阵画出来,然后观察,用向量来解决;
Copyright © 2005-2024 51CTO.COM 版权所有 京ICP证060544号