https://www.bilibili.com/video/av22530538/?p=15
#反向传播===》训练模型参数,在所有参数上用梯度下降,
#使NN模型在训练数据上的损失函数最小。
#损失函数(loss):预测值y)与已知答案(y_)的差距:
#均方误差MSE:MES(y_,y)=(y-y_)^2求和/n
#loss = tf.reduce_mean(tf.square(y_-y))
#反向传播训练方法:以减小loss值为 i优化目标
#train_step = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss)
#train_step = tf.train.MomentumOptimizer(0.001,0.9).minimize(loss)
#train_step = tf.train.AdadeltaOptimizer(0.001).minimize(loss)
#学习率:决定参数每次更新的幅度
#神经网络实现过程:
#1、准备数据集,提取特征,作为输入喂给神经网络(NN)
#2、搭建NN结构,从输入到输出(先搭建计算图,再用会话执行)
#(NN前向传播算法===》计算输出)
#3、大量特征数据喂给NN,迭代优化NN参数
#(NN反向传播算法---》优化参数训练模型)
#4、使用训练好的模型预测和分类
#搭建神经网络的八股:准备、前传、反传、迭代
#0准备 import
# 常量定义
# 生成数据集
#1前向传播:定义输入,参数和输出
#x=
#y_=
#w1=
#w2=
#a=
#y=
#2反向传播:定义损失函数,反向传播方法
#loss=
#train_step=
#3生成会话,训练STEPS轮
#with tf.Session() as sess
# init_op = tf.global_variables_initializer()
# sess_ru(init_op)
# sSTEPS = 3000
# for i range(STEPS):
# strat=
# end=
# sess.run(train_step.feed_dict:)