研究:AI在识别低收入国家家庭用品上表现糟糕

栏目: 服务器 · 发布时间: 5年前

内容简介:据外媒报道,包括谷歌、微软和亚马逊在内的数家科技巨头公司都在销售它们的物体识别算法,然而当这些算法在面对来自低收入国家的物品时其所作出的表现却不尽如人意。 这是Facebook AI实验室进行的一项新研究得出的结论。该研究表明,AI偏见不仅会显示一个国家内部的不平等,也会显示重现国家之间的不平等。在这项研究中,研究人员对眼下五种热门的现成对象识别算法--据悉,数据集包含了117个类别--从鞋子到肥皂再到沙发等等--和一系列不同的家庭收入和地理位置--从月收入27美元的布隆迪的家庭到月收入1090美元的乌克兰

据外媒报道,包括谷歌、微软和亚马逊在内的数家科技巨头公司都在销售它们的物体识别算法,然而当这些算法在面对来自低收入国家的物品时其所作出的表现却不尽如人意。 这是Facebook AI实验室进行的一项新研究得出的结论。该研究表明,AI偏见不仅会显示一个国家内部的不平等,也会显示重现国家之间的不平等。

在这项研究中,研究人员对眼下五种热门的现成对象识别算法-- 微软 Azure、Clarifai、谷歌Cloud Vision、亚马逊Rekognition和IBM Watson进行了研究,以此来了解每个系统对来自全球数据集的家庭物品的识别能力。

据悉,数据集包含了117个类别--从鞋子到肥皂再到沙发等等--和一系列不同的家庭收入和地理位置--从月收入27美元的布隆迪的家庭到月收入1090美元的乌克兰的家庭等。

研究人员发现,与月收入超过3500美元的家庭相比,当被要求识别月收入只有50美元的家庭的物品时,物体识别算法的出错率要高出10%左右。在准确性上的绝对差异甚至更大:与索马里和布基纳法索的物品相比,这些算法在识别来自美国的物品上要高出15%至20%。

研究人员在报告中指出,这些发现在一系列用于图像识别的商业 云服务 中的表现是一致的。

研究:AI在识别低收入国家家庭用品上表现糟糕

实际上,这种偏见在AI中是一个众所周知的问题,它有着许多的根本原因。其中最常见的一种就是,用于创建算法的培训数据往往反映了相关工程师的生活和背景。由于这些人通常是来自高收入国家的白人男性,所以他们教授的课程所要识别的东西自然也都是来自这些高收入的国家。

AI偏见最知名的例子之一就是面部识别算法,这种算法在识别女性面孔时表现更差,特别是在面对有色人种女性的时候。

在对象识别算法的例子中,研究作者指出,有几个可能的错误原因:第一,用于创建系统的训练数据受地理限制;第二,它们无法识别文化差异。

同样的,大多数图像数据集都是使用英语名词作为起点,并展开相对应的数据收集。这可能意味着整个类别的物品在系统消失不见,或相同的物品在不同的国家实际上代表着两种不同的东西。作者以dish soap为例,在一些国家,dish soap是一种肥皂,而在另一些国家,dish soap是一种液体容器。

而这可能只是冰山一角。虽然视觉算法是能相对容易评估出这些偏见,但创建这些程序的渠道同时也在为整个行业提供算法,而这些算法永远不会受到同样的审查。

虽然硅谷经常把自己的产品尤其是近年来的AI产品宣传为人人平等、人人可得,然而类似的研究却显示,科技公司则是在按照自己的形象评估、定义和塑造世界。

研究:AI在识别低收入国家家庭用品上表现糟糕

以上所述就是小编给大家介绍的《研究:AI在识别低收入国家家庭用品上表现糟糕》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

任正非传

任正非传

孙力科 / 浙江人民出版社 / 2017-5-2 / 39.80

编辑推荐: 超权威、超丰富、超真实的任正非传记 亲述任正非跌宕起伏、传奇精彩的一生 ◆知名财经作家孙力科,历时十年,数十次深入华为,采访华为和任正非历程中各个关键人物,几度增删,创作成此书 ◆全书展现了任正非从出生至今70多年的人生画卷,从入伍到退役进国企,从艰难创业到开拓海外市场,囊括其人生道路上各个关键点,时间跨度之长,内容之丰富,前所未有 ◆迄今为止,任正非一生......一起来看看 《任正非传》 这本书的介绍吧!

HTML 编码/解码
HTML 编码/解码

HTML 编码/解码

URL 编码/解码
URL 编码/解码

URL 编码/解码

UNIX 时间戳转换
UNIX 时间戳转换

UNIX 时间戳转换