Ian Goodfellow牵头举办NIPS机器学习对抗赛,提升系统鲁棒性

发布时间:2017-07-13

    每年年底举办的NIPS 都是令学者为之一振的顶级学术盛会。今年首次增加了一个新议程,即「NIPS 2017 Competition Track」。本次竞赛活动从23 个候选提案中选择了五个数据驱动的比赛项目,覆盖领域广泛。而今天谷歌大脑研究员Ian Goodfellow 在Twitter 上强烈推荐了他牵头组织的Adversarial Attacks and Defences(对抗攻击防御)比赛。而Nicolas Papernot 也倾情转发支持。

    这一比赛由Alexey Kurakin、Ian Goodfellow 和Samy Bengio 一同举办。目前大多数现有的机器学习分类器的鲁棒性很差,容易受对抗样本的影响。样本经过轻微修改后,可能就会让机器学习分类器受到迷惑,并进行错误的分类。这些修改可能人类几乎无法看出区别,这可能会对机器学习分类器的安全性产生不利影响。因此,这一比赛主要也是为了加快研究机器学习分类器的对抗样本,提升其鲁棒性。

    Kaggle 前段时间被谷歌收购,因此这一比赛也自然而然在Kaggle 上发布。虽然是在Kaggle 上发布具体介绍,但这一比赛依然要遵循NIPS 2017 Competition Track 的相关规定。

    比赛的全名为Non-targeted Adversarial Attack,简介是「Imperceptibly transform images in ways that fool classification models」,也就是说,需要以欺骗分类模型的方式将图片巧妙地移花接木。具体而言,分为三个竞赛项目:

·         Non-targeted Adversarial Attack,竞赛者所提交的系统需要对给定的图片进行处理,使得某个通用机器学习分类器无法识别。

·         Targeted Adversarial Attack,竞赛者所提交的系统需要对给定的图片进行处理,让某个通用机器学习分类器能成功识别图像属于特定类别。

·         Defense Against Adversarial Attack,竞赛者需要构建一个机器学习分类器,拥有足够的鲁棒性使之能正确鉴别对抗性的图像。

    比赛将在给定的数据集中进行测试,并且希望参赛者能针对数据集中的每张图像生成对应的对抗样本。所有生成的图片将在所有提交的防御性分类器中进行测试,如果分类器分类错误,则对方得一分。而每次攻击都会依照下面的公式进行计算,分数越高,则说明攻击系统的效果越好。

    在本次比赛中,用于攻击与防御所用的分类任务都是源于ImageNet。谷歌希望参赛者也能构建强大的 ImageNet 分类器,并且能抵御对抗攻击。

    此外,为了让竞争更加有趣,而且避免公共数据的过度使用,将采用DEV 与TEST 数据集对结果进行评估与测试。DEV 数据集涵盖1000 张图像,而TEST 数据集目前保密,将在比赛结束后公开。

    根据介绍,8 月1 日、9 月1 日、9 月15 日将分别启动三轮开发进程,并在10 月1 日截止提交。在Kaggle 页面上包含了参赛的详细信息,感兴趣的同学朋友们可以密切关注这一赛事。

NIPS 介绍页面:https://nips.cc/Conferences/2017/CompetitionTrack

Kaggle 介绍页面:https://www.kaggle.com/c/nips-2017-non-targeted-adversarial-attack#description

来源:雷锋网