深度学习loss大体上分成两类分类loss和回归loss。
- 回归loss:平均绝对误差L1loss,平均平方误差L2loss, smooth L1 loss
- 分类loss : 0-1损失, logistic loss, hinge loss 铰链损失, exponential loss(指数损失), KL散度。
回归loss
L1 loss
- 在loss为0处不可导,求解效率比较低
- 梯度比较稳定,在损失很小的时候梯度也是稳定的不利于收敛
- 由于没有平方对于异常不敏感。
L2 loss
- 平滑处处可导,在反向传播的时候有利于梯度计算。
- 随着loss下降,梯度也进行下降,可以很快的收敛。
- 由于有平方项所以有异常值的情况下会影响比较大。
- 误差很大的时候梯度很大,一开始的时候容易梯度爆炸。
Smooth L1 loss
if |f(x_{i} - y_{i}|<1
else
- 在loss比较大的时候,梯度不至于过大。
- 差别很小的时候梯度又比较小,有利于收敛。
分类loss
0-1 loss
- 对每一个点都时相同的权重,对误差大的点不会过多关注。
- 离散点不利于优化。
logistic loss
high loss
Exponential loss
其他常用的loss
softmax cross-entropy loss
y表示的是标签的one-hot编码
Weighted cross-entropy loss
通过权重可以解决样本不平衡的问题。
Focal loss
yi =1:
yi=0:
传统的CE loss,当为正样本时,概率越大loss 越低,负样本时,概率越小loss越低。
为了使得网络更关注于困难样本,以参数
为例子
当目标是正样本时希望概率越大的,它的loss抑制得更低,
概率为0.8 时,正常的CE loss为0.096,而focus loss 为0.003
概率为0.4时,正常的CE loss为0.39, 而focus loss为0.14
可以很明显看出容易样本loss被抑制了30倍,而困难样本才抑制了不到3倍,这样网络就会更关注困难样本。
同理当目标为负样本的时候是一样的,网络会更关注概率比较大的困难样本。
是作为权重是为了平衡正负样本。
所以focus loss既可以解决简单和困难样本,同时还能平衡样本不均衡。
Triplet loss
用于训练差异比较小的样本,比如人脸,a和b为同类, a和n为异类。这样可以保证同类的差异小于不同类别的loss。
Contrastive loss
用于处理孪生网络
Center loss
这个是为了解决人脸识别中同一个人脸内部的差距较大的问题。
IOU loss
IOU存在的问题
- 如果两个框没有相交,根据定义IOU=0,不能反映两个框的距离,loss=0梯度为0,不能训练
- IOU不能很好的反映两者重合的状况
三张图IOU一样,但是左边的IOU最好,右边最差。
GIOU
U 表示的是两个框的并集合
表示的是两个框的外接矩形
代码:
def Giou(rec1,rec2):
#分别是第一个矩形左右上下的坐标
x1,x2,y1,y2 = rec1
x3,x4,y3,y4 = rec2
iou = Iou(rec1,rec2)
area_C = (max(x1,x2,x3,x4)-min(x1,x2,x3,x4))*(max(y1,y2,y3,y4)-min(y1,y2,y3,y4))
area_1 = (x2-x1)*(y1-y2)
area_2 = (x4-x3)*(y3-y4)
sum_area = area_1 + area_2
w1 = x2 - x1 #第一个矩形的宽
w2 = x4 - x3 #第二个矩形的宽
h1 = y1 - y2
h2 = y3 - y4
W = min(x1,x2,x3,x4)+w1+w2-max(x1,x2,x3,x4) #交叉部分的宽
H = min(y1,y2,y3,y4)+h1+h2-max(y1,y2,y3,y4) #交叉部分的高
Area = W*H #交叉的面积
add_area = sum_area - Area #两矩形并集的面积
end_area = (area_C - add_area)/area_C #闭包区域中不属于两个框的区域占闭包区域的比重
giou = iou - end_area
return giou
DIOU
表示欧式距离, b和
表示的是预测框和真实框之间的中心点, c表示的是最小包围圈的对角距离。
优点:
- 与GIOU类似在与目标框不重叠的时候可以提供移动方向。
- 直接最小化两个框之间的距离,收敛速度更快。
- 在一个框包含在另外一个框的情况下,GIOU会退化成IOU,而DIOU还可以保持好的迭代速度。
- DIOU还可以作为NMS的时候使用,使得NMS效果更好。
def Diou(bboxes1, bboxes2):
rows = bboxes1.shape[0]
cols = bboxes2.shape[0]
dious = torch.zeros((rows, cols))
if rows * cols == 0:#
return dious
exchange = False
if bboxes1.shape[0] > bboxes2.shape[0]:
bboxes1, bboxes2 = bboxes2, bboxes1
dious = torch.zeros((cols, rows))
exchange = True
# #xmin,ymin,xmax,ymax->[:,0],[:,1],[:,2],[:,3]
w1 = bboxes1[:, 2] - bboxes1[:, 0]
h1 = bboxes1[:, 3] - bboxes1[:, 1]
w2 = bboxes2[:, 2] - bboxes2[:, 0]
h2 = bboxes2[:, 3] - bboxes2[:, 1]
area1 = w1 * h1
area2 = w2 * h2
center_x1 = (bboxes1[:, 2] + bboxes1[:, 0]) / 2
center_y1 = (bboxes1[:, 3] + bboxes1[:, 1]) / 2
center_x2 = (bboxes2[:, 2] + bboxes2[:, 0]) / 2
center_y2 = (bboxes2[:, 3] + bboxes2[:, 1]) / 2
inter_max_xy = torch.min(bboxes1[:, 2:],bboxes2[:, 2:])
inter_min_xy = torch.max(bboxes1[:, :2],bboxes2[:, :2])
out_max_xy = torch.max(bboxes1[:, 2:],bboxes2[:, 2:])
out_min_xy = torch.min(bboxes1[:, :2],bboxes2[:, :2])
inter = torch.clamp((inter_max_xy - inter_min_xy), min=0)
inter_area = inter[:, 0] * inter[:, 1]
inter_diag = (center_x2 - center_x1)**2 + (center_y2 - center_y1)**2
outer = torch.clamp((out_max_xy - out_min_xy), min=0)
outer_diag = (outer[:, 0] ** 2) + (outer[:, 1] ** 2)
union = area1+area2-inter_area
dious = inter_area / union - (inter_diag) / outer_diag
dious = torch.clamp(dious,min=-1.0,max = 1.0)
if exchange:
dious = dious.T
return dious
CIOU
DIOU没有将长宽比考虑进去,因此需要加入:
代码:
def bbox_overlaps_ciou(bboxes1, bboxes2):
rows = bboxes1.shape[0]
cols = bboxes2.shape[0]
cious = torch.zeros((rows, cols))
if rows * cols == 0:
return cious
exchange = False
if bboxes1.shape[0] > bboxes2.shape[0]:
bboxes1, bboxes2 = bboxes2, bboxes1
cious = torch.zeros((cols, rows))
exchange = True
w1 = bboxes1[:, 2] - bboxes1[:, 0]
h1 = bboxes1[:, 3] - bboxes1[:, 1]
w2 = bboxes2[:, 2] - bboxes2[:, 0]
h2 = bboxes2[:, 3] - bboxes2[:, 1]
area1 = w1 * h1
area2 = w2 * h2
center_x1 = (bboxes1[:, 2] + bboxes1[:, 0]) / 2
center_y1 = (bboxes1[:, 3] + bboxes1[:, 1]) / 2
center_x2 = (bboxes2[:, 2] + bboxes2[:, 0]) / 2
center_y2 = (bboxes2[:, 3] + bboxes2[:, 1]) / 2
inter_max_xy = torch.min(bboxes1[:, 2:],bboxes2[:, 2:])
inter_min_xy = torch.max(bboxes1[:, :2],bboxes2[:, :2])
out_max_xy = torch.max(bboxes1[:, 2:],bboxes2[:, 2:])
out_min_xy = torch.min(bboxes1[:, :2],bboxes2[:, :2])
inter = torch.clamp((inter_max_xy - inter_min_xy), min=0)
inter_area = inter[:, 0] * inter[:, 1]
inter_diag = (center_x2 - center_x1)**2 + (center_y2 - center_y1)**2
outer = torch.clamp((out_max_xy - out_min_xy), min=0)
outer_diag = (outer[:, 0] ** 2) + (outer[:, 1] ** 2)
union = area1+area2-inter_area
u = (inter_diag) / outer_diag
iou = inter_area / union
with torch.no_grad():
arctan = torch.atan(w2 / h2) - torch.atan(w1 / h1)
v = (4 / (math.pi ** 2)) * torch.pow((torch.atan(w2 / h2) - torch.atan(w1 / h1)), 2)
S = 1 - iou
alpha = v / (S + v)
w_temp = 2 * w1
ar = (8 / (math.pi ** 2)) * arctan * ((w1 - w_temp) * h1)
cious = iou - (u + alpha * ar)
cious = torch.clamp(cious,min=-1.0,max = 1.0)
if exchange:
cious = cious.T
return cious