前言
本篇记录一个语义分割的常用损失函数,Dice Loss
Dice系数
Dice系数用于衡量两个样本之间的点的相似度,公式如下:
其中,表示XY样本之间的交集,||表示元素个数,分子的系数为2,因为分母的计算实际上把交集重复计算了两次。
Dice Loss
Dice Loss实际上就是Dice系数的负数:
Dice系数越大,Loss越小,表示两个样本越相似。
代码
paddle中直接给出了一个api计算Dice Loss,可以计算二分类和多分类的Dice Loss:
pred = paddle.ones([b, h, w, n])
label = paddle.ones([b, h, w, 1])
paddle.nn.functional.dice_loss(pred, label)
其中,pred表示模型的多分类输入,shape=[b, h, w, n],n表示多分类的分数,label表示标签mask,shape=[b, h, w, 1]
文章出处登录后可见!
已经登录?立即刷新