Question详细

当前位置:首页 > Google问答 > 谷歌研究员牵头举办NIPS机器学习对抗赛
记录每日热点资讯,掌握行业最新趋势返回首页

谷歌研究员牵头举办NIPS机器学习对抗赛

分享到:
浏览次数:时间:2017-07-11来源:http://www.googlegz.com

  NIPS全称为神经信息处理系统大会,是机器学习领域的顶级会议,也是令众多学者振奋的学术盛会。2017年年底举办的NIPS将新增一个议程,NIPS 2017 Competition Track,从23个候选提案中选择了五个数据驱动的比赛项目。近日谷歌大脑研究员Ian Goodfellow在社媒平台中强烈推荐了由他组织的Adversarial Attacks and Defences(对抗攻击防御)比赛。下面广州谷歌推广小编就带大家了解一下Ian组织的这个比赛。

对抗攻击防御比赛

  Adversarial Attacks and Defences主要是指对抗攻击防御比赛,这项比赛由Ian Goodfellow以及Alexey Kurakin、Samy Bengio举办。现有的大多数机器学习分类器的鲁棒性很差,容易受到对抗样本的影响。经过修改后的样本很容易让机器学习分类器感到迷惑,进行错误的分类,这些修改可能人类无法识别,但是这对机器学习分类器的安全性会产生不好的影响。为了提升机器学习分类器的鲁棒性,加快研究其对抗样本,Ian Goodfellow等人举办了这项比赛。

  这项比赛的消息在此前被谷歌收购的Kaggle平台上进行了发布和介绍,不过它依然要遵循NIPS 2017 Competition Track 的相关规定。比赛的全称为Non-targeted Adversarial Attack,简介是Imperceptibly transform images in ways that fool classification models,也就是说,需要以欺骗分类模型的方式将图片巧妙地移花接木。具体来说这项比赛有三个竞赛项目:

  1、Non-targeted Adversarial Attack,竞赛者所提交的系统需要对给定的图片进行处理,使得某个通用机器学习分类器无法识别。

  2、Targeted Adversarial Attack,竞赛者所提交的系统需要对给定的图片进行处理,让某个通用机器学习分类器能成功识别图像属于特定类别。

  3、Defense Against Adversarial Attack,竞赛者需要构建一个机器学习分类器,拥有足够的鲁棒性使之能正确鉴别对抗性的图像。

  比赛将在给定的数据集中进行测试,并且希望参赛者能针对数据集中的每张图像生成对应的对抗样本。所有生成的图片将在所有提交的防御性分类器中进行测试,如果分类器分类错误,则对方得一分。而每次攻击都会依照下面的公式进行计算,分数越高,则说明攻击系统的效果越好。

  在本次比赛中,用于攻击与防御所用的分类任务都是源于 ImageNet。谷歌希望参赛者也能构建强大的 ImageNet 分类器,并且能抵御对抗攻击。

  为了让竞争更加有趣,而且避免公共数据的过度使用,将采用 DEV 与 TEST 数据集对结果进行评估与测试。DEV 数据集涵盖 1000 张图像,而 TEST 数据集目前保密,将在比赛结束后公开。

标签: