内容简介:雷锋网注:【 图片来源:Jimmy Gomez毕业于哈佛大学,是加州民主党成员,也是美国众议院为数不多的西班牙裔议员之一。但在亚马逊公司的面部识别系统看来,Gomez更像是一个潜在的罪犯。
雷锋网注:【 图片来源: IEEE 所有者:Matthias Graben/Getty Images 】
Jimmy Gomez毕业于哈佛大学,是加州民主党成员,也是美国众议院为数不多的西班牙裔议员之一。但在亚马逊公司的面部识别系统看来,Gomez更像是一个潜在的罪犯。
亚马逊公司的面部识别系统名为Rekognition,去年,美国公民自由联盟(ACLU)对该系统进行了测试。测试结果显示,该系统错误地将美国国会议员Gomez与被捕罪犯的面部照片进行了配对。而且,警方使用的Rekognition系统中,有近40%的错误匹配涉及有色人种。
这一发现让公民自由团体、立法者,甚至一些科技公司的担忧日益加剧。这种技术已经在iphone和安卓手机上得到了应用,警方、零售商、机场和学校等组织也在慢慢接受这种技术。随着面部识别技术变得更加主流,它可能会伤害少数群体。
研究表明,对于面部识别系统来说,准确地识别女性和深色人种难度更大,这个问题可能会导致灾难性的误报。公民自由律师Jacob Snow说,“这个例子说明,如果将面部识别技术应用到执法领域,可能会带来有害的后果。”
面部识别技术固然有它的好处。马里兰州警方利用该技术确认了大规模枪击案的嫌疑人;在印度,警方利用该技术在四天内确认了近3000名失踪儿童的身份;脸书利用该技术为视障人士识别照片中的人物;除此之外,面部识别技术已经成为解锁智能手机的一种便捷方式。
但这项技术并不完美,也有一些令人尴尬的失误。谷歌图片曾把两个黑人贴上大猩猩的标签;在中国,一名女性声称,她同事的脸能够解锁她的iPhone X。当执法机构用这项技术来识别犯罪嫌疑人,或者识别在抗议活动的参与人时,误判的风险就会加大。“当你把这项技术卖给执法部门,让他们来识别通缉犯,情况就完全不同了。”Gomez说,“因为,你创造了一种可能性,面部识别技术产生的误报可能让执法部门伤及无辜,甚至闹出人命。”
Gomez议员对ACLU的调查结果并不感到震惊,他指出,科技工作者往往更注重如何让技术发挥作用,而不是深思熟虑他们的技术会不会影响其他群体。科技公司对Gomez的批评做出了回应,他们改善了用于训练面部识别系统的数据。但与民权主义人士一样,科技公司同样呼吁政府加强监管,保护这项技术不被滥用。乔治敦大学法学院的研究人员估计,美国执法部门的面部识别数据库存储了二分之一的成年公民信息。
亚马逊反驳了ACLU的测试结果,该公司声称,ACLU在运行测试时使用了错误的设置。亚马逊AI项目的总经理Matt Wood在一篇博客文章中写道,“就像烤披萨,错误的温度设定会把披萨烤坏,我们不应该把这个原因归结在烤箱身上。在帮助执法机构完成工作的方面,机器学习发挥着至关重要的作用。我们应该关注面部识别技术的正确使用,同时也不应该把面部识别全盘否定。”
难以消除的错误率
与白人男性相比,面部识别技术在识别其他群体和女性时,可能会遇到更多困难,造成这一情况的原因有很多。
乔治敦大学法学院隐私与技术中心高级助理Clare Garvie说,科技公司用来训练面部识别系统的数据库中,白人的图片可能比其他群体的图片更多。例如,如果一家公司使用名人数据库中的照片,这家公司的系统就会倾向于白人,因为其他群体在好莱坞的代表性不足。
雷锋网 (公众号:雷锋网) 注:【 图片来源: IEEE 所有者:Getty Images 】
Garvie说,科技公司的工程师们(主要由白人男性组成)也可能无意中设计了面部识别系统,以便更好地识别某些种族。研究表明,人们更难识别其他种族的面孔,“跨种族偏见”可能会蔓延到AI技术之中。
Garvie还补充道,此外还有一些挑战,比如深色皮肤缺乏颜色对比,或者女性用化妆品来掩盖皱纹,或者用不同的方式梳头。MIT媒体实验室进行的一项调查表明,与白人男性相比,微软、IBM等公司制造的面部识别系统更难识别深肤色女性的性别,例如非裔美籍女性。深肤色女性性别被误认的概率高达35%,而识别浅肤色的人种(白人男性)的错误率只有1%。
MIT今年1月发布的另一项研究显示,在识别深肤色女性的性别方面,亚马逊的面部识别技术比上述两家公司更差。
任重道远的科技公司
亚马逊公司对MIT的研究结果提出了质疑,女发言人Matt Wood在博客文章中指出,这项研究“具有误导性”。因为,研究人员使用了“面部分析”来识别人脸的特征,例如性别或微笑,而不是将人脸与照片或视频中的图象进行“面部识别”。
“面部分析和面部识别在基本技术和训练数据来源方面是完全不同的。”Matt Wood表示,“试图使用面部分析来判断面部识别的准确性很不明智,因为面部分析不是为算法而生的。”
科技巨头们并不是没有考虑到种族偏见。Microsoft公司表示,自己在去年就将识别女性和深肤色人种的错误率降低了20倍;Facebook公司使用面部识别技术来标记用户,公司的一位发言人表示,该公司确保其使用的数据是“平衡的,并且反映了Facebook用户的多样性”;Google声称,它发表了关于人工智能的原则,其中包括禁止“制造或加强不公平的偏见”。
今年1月,IBM发布了一组“人脸多样性”的数据,旨在促进对面部识别的公平性和准确性的研究。这些数据包括100万张人脸图片,并附有人脸对称性、鼻子长度和前额高度等标签。“对于多样性的意义,我们有一些主观和浅显的见解,”IBM“人脸多样性”项目的首席科学家John Smith说,“因此,IBM创建这个数据库的目的是深入研究如何真正测量人脸的多样性。”该数据库的照片来自照片网站Flickr。
本月,IBM遭到了一些摄影师、专家和活动人士的批评,因为IBM没有征求人们的同意,就将他们的照片用于改善面部识别技术。作为回应,IBM表示将严肃对待隐私问题,用户可以选择退出数据库。
亚马逊表示,目前,自己公司正在使用反映多样性的培训数据源,并向客户传授面部识别技术的最佳使用方案。今年2月,该公司发布了指导方针,称立法者在考虑监管时应将其考虑在内。
公司副总裁Michael Punke在一篇博客文章中表示:“各方应该进行开诚布公地对话,以确保该技术应用得当,并不断进行改进。”
必不可少的政府监管
尽管科技公司努力提高面部识别技术的准确性,但在歧视移民或其他种族方面,人们的担忧并没有消失。部分原因是这些群体在日常生活中仍在与偏见作斗争。
民权组织和专家认为,执法部门和政府仍然可以利用这项技术来识别政治抗议者或追踪移民,从而限制他们的自由。Garvie表示,“这是一个足以成为监视 工具 的精确系统。”
民权组织和科技公司均呼吁政府介入。“如果政府想管理该技术的应用,最有效方法就是管理好政府自己对这项技术的使用。”Microsoft公司总裁Brad Smith在一篇博客文章中写道,“如果人们对某项技术在社会上的广泛应用感到担忧,那么,政府是唯一一个能够监管这种广泛应用的机构。”
ACLU呼吁立法者暂时禁止执法部门使用人脸识别技术。民权组织也给亚马逊公司写了一封信,要求其停止向政府提供人脸识别系统。一些立法者和科技公司已经要求NIST(评估人脸识别技术的机构)为人脸识别的种族偏见检验提供行业标准和实践支持。
对于Gomez这样的议员来说,这项工作才刚刚开始。“我不反对亚马逊,”他说,“但这项新技术对人们的隐私和自由等方面产生了深刻影响,它引发了很多问题。”
雷锋网注:原文作者为QUEENIE WONG,本文编译自 IEEE
【封面图片来源:网站名 IEEE ,所有者:Matthias Graben/Getty Images】
雷锋网版权文章,未经授权禁止转载。详情见 转载须知 。
以上所述就是小编给大家介绍的《消除人脸识别系统对不同肤色的误判,为何比登天还难?》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- 15万人联名抗议!亚马逊人脸识别误判28名国会议员为罪犯
- 人脸专集(三):人脸关键点检测(下)
- 应用层下的人脸识别(二):人脸库
- 应用层下的人脸识别(三):人脸比对
- 阿里人脸识别安全技术获专利 可防范3D人脸面具攻击
- 你能区分真实人脸和AI生成的虚假人脸吗?
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
信息学奥林匹克教程·提高篇
吴耀斌 / 湖南师范大学出版社 / 2003-1 / 24.00元
《信息学奥林匹克教程》(提高篇)既有各个算法设计基本思路的讲解及对求解问题的分析,注重了算法引导分析与不同算法的比较,又给出了具体的编程思路与参考程序,程序采用信息学竞赛流行的Turbo Pascal7.0语言编写,并注重结构化与可读性。一起来看看 《信息学奥林匹克教程·提高篇》 这本书的介绍吧!