最新消息: USBMI致力于为网友们分享Windows、安卓、IOS等主流手机系统相关的资讯以及评测、同时提供相关教程、应用、软件下载等服务。

[CVPR

互联网 admin 2浏览 0评论

[CVPR

Randaugment: Practical automated data augmentation with a reduced search space

摘要

  • 自动搜索数据增强策略有着庞大且离散的搜索空间,AutoAugment的解决方法是在小规模proxy task上搜索,但proxy task和actual task之间的gap还未解决;
  • previous work需要独立搜索每个operation的强度和概率,本文发现可以只搜索一个强度,用它同时控制所有operations;
  • 在CIFAR-10/100,SVHN,ImageNet和COCO上取得了和之前持平或更好的效果。

方法

proxy task可能提供一个次优结果;前人工作指出学习到的增强策略通过增加样本多样性来改善模型;为了减少参数量,将选择概率改为统一的(1/K)。operation的强度离散为0-10。同时,本文观察到每个operation在训练时学习到的强度满足某种similar schedule。

由此,本文假设可以用一个全局参数M来控制所有operations的强度。本文实验了4种M的变化模式:(1)常数;(2)随机;(3)线性增加;(3)上线逐渐增加的随机:

RandAugment算法仅包括两个参数:N和M

 

实验

ImageNet

 COCO

 transforms的数量

学习执行operations的概率

 大多数transformations(除了posterize, equalize和autoContrast)是可导的,因此允许通过反向传播学习K个概率参数

[CVPR

Randaugment: Practical automated data augmentation with a reduced search space

摘要

  • 自动搜索数据增强策略有着庞大且离散的搜索空间,AutoAugment的解决方法是在小规模proxy task上搜索,但proxy task和actual task之间的gap还未解决;
  • previous work需要独立搜索每个operation的强度和概率,本文发现可以只搜索一个强度,用它同时控制所有operations;
  • 在CIFAR-10/100,SVHN,ImageNet和COCO上取得了和之前持平或更好的效果。

方法

proxy task可能提供一个次优结果;前人工作指出学习到的增强策略通过增加样本多样性来改善模型;为了减少参数量,将选择概率改为统一的(1/K)。operation的强度离散为0-10。同时,本文观察到每个operation在训练时学习到的强度满足某种similar schedule。

由此,本文假设可以用一个全局参数M来控制所有operations的强度。本文实验了4种M的变化模式:(1)常数;(2)随机;(3)线性增加;(3)上线逐渐增加的随机:

RandAugment算法仅包括两个参数:N和M

 

实验

ImageNet

 COCO

 transforms的数量

学习执行operations的概率

 大多数transformations(除了posterize, equalize和autoContrast)是可导的,因此允许通过反向传播学习K个概率参数

发布评论

评论列表 (0)

  1. 暂无评论