书呆子、荡妇、罪犯…你的照片竟被AI这样“标签”了?

2019-10-27 18:01:49   【浏览】4985次

[云搜索网(微信号:)9月23日报道

周三早上,当塔邦·基马查看他的推特时,他看到了主题标签#imagenet轮盘赌。

似乎每个人都在上传自拍到一个网站,在那里一些人工智能会分析每张脸并描述它所看到的。imagenet轮盘赌网站认定其中一名男子是“孤儿”;另一个是“不吸烟者”;第三个戴眼镜的是“愚蠢、古怪、书呆子、古怪、愚蠢”。

在kima的推特上,这些标签(有些准确,有些奇怪,有些离谱)都是为了好玩,所以他加入了进来。但是这位24岁的非洲裔美国人对他将看到的不满意。当他上传他微笑的照片时,网站将他标记为“非法”和“罪犯”。

“我可能没有幽默感,”他在推特上写道。“但我不认为这特别有趣。”

事实证明,他的回应正是网站所希望的。图像网轮盘赌(Imagenet roulette)是一个数字艺术项目,旨在揭示古怪、不健全和好斗的行为可以传播到人工智能技术,从而迅速改变我们的日常生活,涉及互联网公司、警察部门和其他使用面部识别服务的政府机构。

面部识别和其他人工智能技术通过分析大量数字数据来学习技能。这些数据来自旧网站和学术项目,通常包含一些小的偏差和其他很多年没有被注意到的缺陷。由美国艺术家特雷弗·帕格伦和微软研究员凯特·克劳福德设计的Imagenet轮盘赌旨在以更深、更全面的方式揭露这一问题。

帕格伦在巴黎接受电话采访时说:“我们想展示偏见、种族主义和厌恶女性是如何从一个系统转移到另一个系统的。”。“关键是让人们看到幕后发生了什么,以及我们是如何被对待和分类的。”

作为本周米兰普拉达基金会博物馆展览的一部分,该网站关注一个名为imagenet的数据库,该数据库收集了大量照片。十多年前,加州硅谷斯坦福大学的一组研究人员首次编译了imagenet,它对“深度学习”的兴起起到了至关重要的作用,“深度学习”是一种数学技术,它使机器能够识别包括人脸在内的图像。

Imagenet是一种训练人工智能系统并判断其准确性的方法。它包括从互联网上提取的1400多万张照片。通过分析各种图像,例如花、狗和汽车,系统可以学会识别它们。

社区中了解人工智能的人很少讨论imagenet还包含成千上万人的照片,每个人都根据自己的类别进行分类。这包括直截了当的标签,如“啦啦队员”、“焊工”和“童子军”,以及模糊的标签,如“失败、失败者、没有成功希望的人、不成功的人”和“奴隶、荡妇、邋遢女人和流氓”。

Paglen和crawford已经创建了一个应用这些标签的项目。不管这些标签看起来是否无害,它们都显示了想法、偏见,甚至一些攻击性的想法是如何促进人工智能的创造的。

成千上万的匿名人士使用了Imagenet的标签,很可能来自斯坦福大学的研究团队。通过众包服务亚马逊机械土耳其人,他们每张照片赚几美分,每小时浏览数百个标签。正如他们所做的那样,偏见被包括在数据库中,尽管不可能知道这些偏见是否由制作标签的人持有。

他们给“失败者”、“荡妇”和“不法分子”下了定义。

这些标签最初来自另一个巨大的数据集wordnet,这是普林斯顿大学研究人员在20世纪80年代为机器编写的概念词典。然而,包括这些炎症标签,斯坦福大学的研究人员可能没有意识到他们在做什么。

人工智能通常是在大型数据集上训练的,即使它的创建者也不完全理解这些数据集。莉兹·奥沙利文(Liz o'sullivan)曾在人工智能初创企业clarifai负责监控数据标签,现在是一个名为“监控技术监控项目”的组织的成员,该组织旨在提高人们对人工智能系统问题的认识。他曾经说过,“当人工智能开始计算时,它们总是以超大规模运行,这将带来一些后果”。

imagenet数据集中使用的许多标签都是极端的。然而,同样的问题可能会蔓延到看似无害的标签上。毕竟,“男人”和“女人”的定义还需要讨论。

奥沙利文说:“在给女性或女孩的照片贴标签时,非二元性别或短发女性的人可能不包括在内。”。"然后你会得到一个只包括长发女性的人工智能模型."

最近几个月,研究人员发现亚马逊、微软和ibm等公司的人脸识别服务可能对女性和有色人种有偏见。在这个项目中,帕格伦和克劳福德希望吸引更多的人关注这个问题,他们真的做到了。本周,随着该项目在推特社交网站上变得流行,imagenet轮盘赌每小时产生超过10万个标签。

克劳福德和帕格伦在巴黎说:“我们对它的起飞方式感到十分惊讶。”。“它让我们能够真正看到人们对此事的看法,并真正与他们取得联系。”

对有些人来说,这只是一个玩笑。但是像kima这样的人会理解克劳福德和帕格伦所做的努力。他说:“他们在突出问题方面做得很好,但这并不意味着我以前没有意识到这个问题。”

然而,克劳福德和帕格伦认为这个问题可能比人们意识到的更严重。

Imagenet只是技术巨头、初创企业和学术实验室广泛使用和重用的众多数据集之一,因为它们训练各种形式的人工智能。这些数据集中的任何缺陷都已经扩散。

如今,许多公司和研究人员正在努力消除这些缺陷。为了回应偏见,微软和ibm更新了他们的面部识别服务。今年1月,当克劳福德和帕格伦首次讨论imagenet中使用的奇怪标签时,斯坦福大学的研究人员封锁了数据集中所有的人脸下载。他们现在说他们将删除更多的面孔。

斯坦福大学的研究小组通过《纽约时报》发表了一份声明。他们的长期目标是“解决数据集和算法中的公平、问责和透明问题”。

但对帕格伦来说,一个更大的问题迫在眉睫。最基本的事实是人工智能向人类学习,人类是有偏见的生物。“我们分类图像的方式是我们世界观的产物,”他说。"任何分类系统都将反映分类人的价值观."


上一篇:为电影而生,松下LUMIX S1H国内正式发布
下一篇:武孝城际武咸城际10月11日起实现互通 咸宁坐动车2小时可直