内容简介:在上周一的一致投票中,旧金山的一个政府委员会推动该市朝着全面禁止政府使用人脸识别技术的目标迈进。这将是美国第一个这样做的城市:随着警察、政府机构和企业被这项技术所吸引,既没有联邦法律,也没有严格的地方法规来管理这项技术的使用。我们中的许多人似乎对旨在公共场合自动识别或介绍自己的监视系统心存警惕,这看起来无关紧要,实则是最令人担忧的。Accenture负责人工智能板块的主管Rumman Chowdhury(拉姆曼•乔杜里)上月在Twitter上写道:“我们为这些技术辩护的理由存在一个根本性问题。”他指的是旧金
【猎云网(微信号:)】5月13日报道(编译:圈圈)
在上周一的一致投票中,旧金山的一个政府委员会推动该市朝着全面禁止政府使用人脸识别技术的目标迈进。这将是美国第一个这样做的城市:随着警察、政府机构和企业被这项技术所吸引,既没有联邦法律,也没有严格的地方法规来管理这项技术的使用。我们中的许多人似乎对旨在公共场合自动识别或介绍自己的监视系统心存警惕,这看起来无关紧要,实则是最令人担忧的。
Accenture负责人工智能板块的主管Rumman Chowdhury(拉姆曼•乔杜里)上月在Twitter上写道:“我们为这些技术辩护的理由存在一个根本性问题。”他指的是旧金山的提议。“我们生活在一个足够危险的状态,以至于我们需要这个吗?”惩罚性监督是帮助我们实现一个健康和安全的社会吗?”
我对任何正在被迅速采用的新技术——AR、VR、大数据、机器学习——存在着疑问“为什么?”“为什么企业或政府需要人脸识别?”“‘我们’没有为这些技术辩护,”我回答。“当权者大多会从中获利。这要么是通过制造或销售设备,要么是使用技术来取代工作人员。这与社会甚至文明无关,而是与金钱和权力有关。”
但金钱和权力并不是推动人脸识别的唯一原因。合作是人类长久以来的生存之道,自从人类出现以来,就有必要将一些人归类为“他者”。不幸的是,我们中一些人身份和行为会让人误解,从而导致了公民、政府和执法部门感到恐惧和不安。今天,那些可怕的想法,加上更大、更流动、更多样化的人口,创造了一种条件,在这种条件下,我们知道彼此,但不了解彼此,除非绝对必要,否则我们也不经常与“对方”打交道。我们的这种恐惧成为加强“安全性”的另一个理由。可就算我们花费大量的时间经营与周边人的关系,秉承开放、合作的心态,减少恐惧,可还是会有人提出需进一步加强安全性来造福大家。
互相监视的实验
然而,我们所谓的“方法”,只不过是在记录别人的信息而已。我们使用的一种识别他人身份的方法,是通过使用监控摄像头。随着监控设备的价格越来越低,各式各样的企业都以提高安全性为名义,安装监控设备,比如在实体店安装摄像头,以防止盗窃和暴力。安保人员可以观看监控视频来代替监视人们; 但随着时间的推移,摄像机已经取代了许多保安人员。通过这种方式,监控录像的做法实则是造成一种心理威慑,如同警察的存在: 是的,我们被录了下来,但我们不知道是否有人在看录像,也不知道他们是否会对他们所看到的不良行为采取行动。
随着监控摄像头变得更小和更便宜,它们可直接被嵌入更多的消费产品中,为人们在日常生活中使用这项技术提供了机会。智能手机的摄像头、Ring制造的智能门铃,以及类似于隐藏在AirBnB(以及社会上许多其他地方)里的微型监控摄像头,都已成为常态。监控已经存在于政府、企业和我们每个人之间,因为我们每个人都携带着智能手机或摄像机。
与更广泛的监控相比,家中的摄像头在抵御“他人”威胁方面具有优势。“家是一个相对封闭的环境,任何异常都可以被房主或他们的软件实时识别和报告。房主们对自己的房产保持警惕,可能会使用额外的应用程序向他们提供实时的监控情况;而且在很多情况下,他们还会聘请第三方安全公司来进行额外的监视。在私人家庭环境中需处理的监控数据信息很少,并且邻居们也在用其他的方法来监视小区周围环境。
但在社会上使用监控摄像头技术存在一个明显的问题:摄像头的大量使用,出现了大量的连续镜头,从而在处理数据信息方面出现了问题。你所能看到的每个摄像头,都有大量的连续镜头做备份(更何况还有你看不到的摄像头),但是很明显,并没有足够的人或资源来处理这些图像数据信息,那么监控记录的意义又在哪里呢?虽然发现了罪犯,行凶者也有可能在开始录像的几个小时或几天之前逃跑。
即便是有一种方法可以梳理监视数据,找到足够的数据来识别某人或他们的车辆,罪犯有效记录在案的资源通常也不存在。有时在我们住所之外发现的相互关联且复杂的监控系统,只有当我们大多数人相信可以利用所发现的数据做些什么时,才会发挥作用。
当一项技术不起作用时,我们可能会引入迭代式的创新,作为改进,这就是监控摄像头可能发生的情况。例如,市政当局很快就为警察配备了可穿戴摄像头。支持这些随身相机的一个理由是,它们可以监督公民(以及官员)更守规矩;另一种说法是,它们可以协助调查,或许很快就能实现实时监控。然而,这种方法并非没有缺点,因为警察资源仍然很少,而且存储和管理所有随身摄像机所拍摄视频的成本对许多警察部门来说是巨大的。与此同时,许多人认为,通过更好的实践、培训和社区互动,而不是“更好”的技术,可以做更多事情来改善治安。
创新下一代监控技术
这些方法的最终结果是,导致我们现在拥有的监控摄像头可能由于多种原因而不起作用,但它们已经成为公共监控的一个组成部分,而且在更大的一些场所,如公司、商店等,也成为监控的一部分。在一个比较复杂的且需要人进入的环境中,人们往往希望在已有的基础上找到一个快速、廉价的解决方案,因为这样就只需增加附加功能就能达到想要的效果。这就是面部识别开始被认为是万灵药的原因,成为原有监视设备基础设施的“附加组件”。
大众传媒对这一概念也有贡献。在科幻小说中,人脸识别技术能发挥自己的作用。电影赞美侦探和警察,他们通过面部识别捕捉坏人来拯救人类。但这不是现实,因为科幻小说是照本宣科的,它的情节和角色在任何一个相互依赖的社会中都无法发挥作用,因为现实社会有着有各式各样的信仰和问题。魅力无穷的大预算科幻电影,其运用的炫酷科技手段吸引了技术专家和市政当局的注意,因为前者想要利用小说来建立技术的模版;而后者在与财政赤字做斗争的同时,能看到最新最好的技术是成功和地位的象征。技术人员可能并不经常关心或熟悉他们所构建的东西将如何影响社会。与此同时,一些市政当局似乎要么掩盖新技术的潜在成果和影响,继续为科技公司提供一个免费的测试平台,要么误解了这些技术将给城镇带来怎样的变化。
从本质上讲,面部识别提供了一个伟大的承诺,可以像在电影中那样,轻松地识别和抓住坏人,而不需要建立任何人际关系和了解社区中人们干的“脏活”。对警察来说,使用软件要比与潜在的危险罪犯互动安全得多,或者冒险与人接触,却发现他们实际上根本不是罪犯。通过这种方式,由监控摄像头组成的社会技术框架(现在可能包括面部识别)开始被用作社区知识和行为的代表。
但是,这些数据并不能准确地替代社区知识,因为它可能被误解和误用。这项技术并不是对所有人都平等、公平地适用,尤其是对那些非白人和跨性别的人来说。麻省理工学院(MIT)去年的一项研究发现,三种常见的面部分析系统显示,浅肤色男性的错误率为0.8%,而深肤色女性的错误率为34.7%,尤其是在执法场景中,找错人带来的风险更加严重。
从面部识别到侧写
人脸识别软件是对监控摄像头的一种创新,它被用来解决一个社会问题。但是只有人,而不是技术,才能解决社会问题。然而,人们可能不得不应用技术来解决这些问题,而这正是我们陷入困境的症结所在:什么技术是合适的,什么不是,我们使用什么工具,就像Dr. Chowdhury和其他人所要求的那样,来构建一个“安全和健康的社会”?
广泛使用价格低廉、没有监管和极具透明的人脸识别 工具 容易令人们感到不安。此外,目前还不清楚人手短缺、预算紧张或缺乏技术经验的警察部门是否会遵守面部识别软件供应商制定的自愿规则。
一旦像亚马逊这样的公司的面部识别软件得到广泛应用——我们是这些异类实验的对象——下一个技术进步应用可能会被引进:人工智能通过利用面部识别得出关于我们和我们的行为的结论。这就是目前中国正在发生的事情,人工智能和人脸识别正被用于监视1100万维吾尔族(一个穆斯林少数民族)。
《纽约时报》最近报道称:“这种人脸识别技术被整合到中国迅速扩张的监控摄像头网络中,只根据维吾尔人的外貌来寻找他们,并记录他们的行踪,以便进行搜索和审查。”“这种做法使中国成为应用下一代技术观察其人民的先驱,可能会开启一个自动化种族主义的新时代。”
中国有关部门和企业正在利用该技术在大型公共活动中抓捕犯罪嫌疑人,以及在更日常的情况下使用该技术,例如在机场和酒店认出寻找的人,锁定在人行横道上羞辱乱穿马路的人,找准用户做针对性广告。人脸识别技术也正在美国各地蔓延,从用于边境安全到制作冰箱货架上的个性化广告。纽约一家房地产集团最近试图为其公寓大楼内的每个公寓单元创建基于人脸识别的钥匙。
也许我们正处在一些技术的尖端,这些技术将以一种对我们来说是全新的方式回归,既挑战我们的底线,又考验我们的社会规范。例如,一旦我们走到哪里都被“认识”,那么,就像其他跟踪和识别我们的数据所做的那样,我们可以不断地被“剖析”。当我们被“剖析”时,人们认为我们的行为可以通过算法预测。一旦我们的行为可以被政府和营销人员“预测”出来,那么我们可能会在算法面前失去我们的主动权,算法生成的“可信数据”要远远多于从我们的账户信息获取的数据信息。
当所有各方都能创造一个他们自己可接受的结果时,就能实现合作。虽然人们有时可能会放弃自己的代理权来得到他们想要的结果,但这种做法并不常见。这就是奴役。没有代理权,没有能力选择自己的形象或销售方式,破坏了合作的基础。为了“方便”而利用面部识别的人工智能应用,在围绕监控技术的技术“创新”中,变得更加危险,因为我们被迫将越来越多的信息暴露出来。
彻底禁止使用该软件的努力面临阻力。国会议员和微软等公司大多在推动相关规定,其中包括强制要求在公共场合使用面部识别工具时,需使用清晰的标识来提醒人们。但这种做法表示,除了主动离开该区域,否则你没有办法选择退出监视,标识给人们提供了不合理的选择。如果没有办法选择退出这个潜在的强大监控系统,人类就会开始成为奴隶。这就是为什么能够限制面部识别的严肃的、可执行的法律是至关重要的,也是为什么在我们的技术发展到这个关键时刻,这种讨论显得如此重要的原因。
一旦面部识别和其他人工智能变得普及,在缺乏严格的可强制执行的法律来保护这项技术的情况下,我们将不受保护;也就意味着,为了满足政府和企业的目的,我们的身份信息和地理位置信息将被利用。这就是贪婪、利润和权力作为激励因素发挥作用的地方。
如果我们想要识别出危险分子,也许他们就是那些希望我们丧失自己的面孔、身份和异质性的实体——不仅仅是为了让他们获利,而是作为一种自动分类和社会控制的手段。这就是为什么面部识别技术会成为我们重点讨论的对象,也是为什么越来越多的人希望在我们的社会中禁止使用它的原因。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:- 人脸专集(三):人脸关键点检测(下)
- 应用层下的人脸识别(二):人脸库
- 应用层下的人脸识别(三):人脸比对
- 阿里人脸识别安全技术获专利 可防范3D人脸面具攻击
- 你能区分真实人脸和AI生成的虚假人脸吗?
- iOS 相机流人脸识别(一)-人脸框检测(基于iOS原生)
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
Python机器学习
[美] Michael Bowles / 沙嬴、李鹏 / 人民邮电出版社 / 2016-12 / 69.00元
在学习和研究机器学习的时候,面临令人眼花缭乱的算法,机器学习新手往往会不知 所措。本书从算法和Python 语言实现的角度,帮助读者认识机器学习。 书专注于两类核心的“算法族”,即惩罚线性回归和集成方法,并通过代码实例来 展示所讨论的算法的使用原则。全书共分为7 章,详细讨论了预测模型的两类核心算法、预测模型的构建、惩罚线性回归和集成方法的具体应用和实现。 本书主要针对想提......一起来看看 《Python机器学习》 这本书的介绍吧!