COCO更新测量目标记录![谷歌]仅用AI放大数据,模型为SOTA,开源量子比特
- 时间:
- 浏览:0
栗子从凹非寺出来
量子位报道
谷歌Quoc Le的大脑团队训练了地面最强的模型。
它在目标检测模型中以前不是最强的
但是,自从团队使用机器学习解除了特别的数据扩展策略,用自动扩展的新数据集训练目标检测模型之后,事情就变了。
注:目标检测和分类不同,分类不需要加边框。目标检测是必需的。
(左边是自动数据放大,右边是成绩提高。)
该模型在COCO目标检测任务中获得50.7mAP的最高得分,刷新了以往的记录。
谷歌的方法,虽然模型本身没有变更,但是+2.3mAP以上的精度提高了。
此外,还强调,通过将AI在“COCO”数据集中学习到的放大策略直接迁移到其他数据集中,可以提高精度。
算法是开源的,还加入了AI学到的扩展策略。
什么样的战略
根据论文,数据扩展需要简单的转换。
这些转换是在培训期间进行的,不用于测试。
研究人员说,如果转换的数量变得庞大,手动有效组合就会变得困难。
因此,使用机器学习,寻找适合目标检测任务的组合。
想法是这样的
团队将“数据高级搜索”视为离散优化问题。优化是模型的广义表示。
根据我们的另一篇文章(arXiv:1805.09501、,我们将重点放在了目标检测的放大策略上。
在目标检测中,比起图像分类任务的数据扩展,更难的是保持边界框和发生失真的图像之间的一致性(共识)
另外,标记边界框提供了一种扩展数据的新方法:只需在边界框中修改图像。如前所述。
我们还探索了在图像进行几何变换时如何更改边界框的位置。
具体的方法是这样的。
将扩展策略定义为子策略
训练将随机选择每个子策略并将其应用于当前图像。
每个子策略都有N个图像转换,它们在同一个图上依次进行。
你需要创造一个搜索空间,让这个搜索过程成为一个离散优化问题
这个空间有五个策略,每个策略都有两个图像转换运算
此外,每个运算都与两个超参数相关联,一个是应用该运算的“可能性”,另一个是“运算大小”。
在初始实验之后,团队进行了22种图像转换。
当你学习完成的子策略时,你会发现:
肉眼可见效果巨大。
第一个目标检测为50.7mAP,(与策略培训前相比)提高了2.3mAP。
第2个是PASCAL VOC目标检测2.7mAP的提高。
也就是说,将COCO中训练的战略直接转移到其他数据集也是有效的。
团队说,这种方法适合在小数据集中避免过拟合。
代码被打开了,大家也试试看吗
论文门户
https://arxiv.org/abs/1906.11172
代码门
https://github.com/tensorflow/tpu/tree/master/models/official/detection