深度学习基础(1):感知器

是什么

感知器
感知器_感知器就是下面这个图里面的东西,其实是模仿了神经元的操作。x1,x2…xn是输入的信号,wi是这个信号所占的权重,在胞体内部求和之后作为自变量输入到激活函数里面去,输入进去会得到一个输出值。这就是他要干的事情

能干什么

感知器其实看名字就知道了,是感知信号用的,最简单的一个例子就是可以做一个二分类操作。做一个简单的实验就是把激活函数的输出定义为一个只有0,1的输出,这样可以简单的表示一下二分类。其实所有的线性可分的二分类操作,都能用感知器解决。

基本原理

其实还是一种信息反馈机制,说白了就是对着答案瞎猜,看看啥时候猜的比较准,猜对了就把猜对的方法记下来,下次还这样猜,猜不对就换一种方式猜。所以机器学习很高大上吗?只不过利用了它强大的计算能力,或者说机器比人猜的快
(1)首先是初始化问题,这个简单,开始全是0
(2)W,b的更新:这个更新其实可以随便,只不过有的更新很快就能够收敛了,一般采用:
感知器_权重_02
增量计算完了之后:
感知器_权重_03
加上去就行了。所以没啥技术含量。ita是学习率。
至于为啥这样更新?这个emmm,把损失函数算一下,对每个量求个导,沿着梯度下降是最快的。

实际操作

嗯,来个最基本的感知器实现and 和or操作。

class Perceptron(object):
def __init__(self, input_num, activator):

self.activator = activator
# 权重向量初始化为0
self.weights = [0.0 for _ in range(input_num)]
# 偏置项初始化为0
self.bias = 0.0
def __str__(self):
'''
打印学习到的权重、偏置项
'''
return 'weights\t:%s\nbias\t:%f\n' % (self.weights, self.bias)

def predict(self, input_vec):
ans=0
for i in range(len(input_vec)):
ans=ans+self.weights[i]*input_vec[i]
ans=ans+self.bias
return self.activator(ans)
def train(self, input_vecs, labels, iteration, rate):
'''
输入训练数据:一组向量、与每个向量对应的label;以及训练轮数、学习率
'''
for i in range(iteration):
self._one_iteration(input_vecs, labels, rate)

def _one_iteration(self, input_vecs, labels, rate):
'''
一次迭代,把所有的训练数据过一遍
'''
# 而每个训练样本是(input_vec, label)
samples = zip(input_vecs, labels)
# 对每个样本,按照感知器规则更新权重
for (input_vec, label) in samples:
# 计算感知器在当前权重下的输出
output = self.predict(input_vec)
# 更新权重
self._update_weights(input_vec, output, label, rate)

def _update_weights(self, input_vec, output, label, rate):
'''
按照感知器规则更新权重
'''
# 把input_vec[x1,x2,x3,...]和weights[w1,w2,w3,...]打包在一起
# 变成[(x1,w1),(x2,w2),(x3,w3),...]
# 然后利用感知器规则更新权重
delta = label - output
for i in range(len(self.weights)):
self.weights[i]=self.weights[i]+rate*(delta)*input_vec[i]
# 更新bias
self.bias += rate * delta

def f(x):
return 1 if x > 0 else 0
def get_training_dataset():
'''
基于and真值表构建训练数据
'''
# 构建训练数据
# 输入向量列表
input_vecs = [[1, 1], [0, 0], [1, 0], [0, 1]]
# 期望的输出列表,注意要与输入一一对应
# [1,1] -> 1, [0,0] -> 0, [1,0] -> 0, [0,1] -> 0
labels = [1, 0, 0, 0]
return input_vecs, labels


def train_and_perceptron():
'''
使用and真值表训练感知器
'''
# 创建感知器,输入参数个数为2(因为and是二元函数),激活函数为f
p = Perceptron(2, f)
# 训练,迭代10轮, 学习速率为0.1
input_vecs, labels = get_training_dataset()
p.train(input_vecs, labels, 10, 0.1)
# 返回训练好的感知器
return p


if __name__ == '__main__':
# 训练and感知器
and_perception = train_and_perceptron()
# 打印训练获得的权重
print(and_perception)
# 测试
print('1 and 1 = %d' % and_perception.predict([1, 1]))
print('0 and 0 = %d' % and_perception.predict([0, 0]))
print('1 and 0 = %d' % and_perception.predict([1, 0]))
print('0 and 1 = %d' % and_perception.predict([0, 1]))

总结

上述思路参考了一位大佬的博客:​​大佬​​​。有兴趣的可以去看看详细的说明,只不过他的代码使用Python 2.7写的,我把一些地方重写了一下,改成了Python 3.X
感知器还是有点用处的。