内容简介:机器学习是当今技术最重要的基本趋势之一,也是未来十年科技将在更广阔的世界中改变事物的主要方式之一。作为其中的一部分,机器学习的各个方面引起关注 - 例如,它对就业的潜在影响,以及它用于我们可能认为不道德的目的,例如它可能给予压迫性政府的新能力。另一个,也就是这篇文章的主题,是人工智能偏差的问题。什么是'AI Bias偏差'?“原始数据既是矛盾又是坏主意; 相反,数据应该小心烹饪。“杰弗里鲍克
机器学习是当今技术最重要的基本趋势之一,也是未来十年科技将在更广阔的世界中改变事物的主要方式之一。作为其中的一部分,机器学习的各个方面引起关注 - 例如,它对就业的潜在影响,以及它用于我们可能认为不道德的目的,例如它可能给予压迫性政府的新能力。另一个,也就是这篇文章的主题,是人工智能偏差的问题。
什么是'AI Bias偏差'?
“原始数据既是矛盾又是坏主意; 相反,数据应该小心烹饪。“杰弗里鲍克
直到2013年左右,如果你想制作一个可以识别照片中的猫的软件系统,你就会编写逻辑步骤。你会做一些寻找图像边缘的东西,一个眼睛探测器,一个用于皮毛的纹理分析器,并尝试计算腿部等等,然后将它们全部固定在一起......它永远不会真的很棒。从概念上讲,这就像试图制造机械马一样 - 理论上这是可能的,但在实践中,复杂性太大,我们无法描述。在没有工作模型的情况下,您最终会得到数百或数千条手写规则。
通过机器学习,我们不使用手写规则来识别X或Y。
相反,我们采用X的一千个例子和Y的一千个例子,我们让计算机根据这些的统计分析建立一个模型。例子。然后我们可以给该模型一个新的数据点,并且它具有给定的准确度,是否适合示例集X或示例集Y.机器学习使用数据生成模型,而不是人类编写模型。这产生了惊人的好结果,特别是对于识别或模式发现问题,这就是为什么整个科技行业正在围绕机器学习重新制作的原因。
然而,有一个问题。在现实世界中,你的千(或十万或百万)X和Y的例子也包含A,B,J,L,O,R和P.这些可能不均匀分布,并且它们可能足够突出,你的AI系统对L和R的关注度却超过了X。
这在实践中意味着什么?我最喜欢的例子是图像识别系统 倾向于 观看草山的照片并指出“羊”。大多数作为“绵羊”的例子的照片都是在草山上拍摄的,因为那是绵羊往往生活的地方,而且图像中的草比白色蓬松的小东西更加突出。
这里要理解的一个重要事项是系统没有语义去理解它正在看的是什么。我们查看像素网格并将其转换为绵羊,皮肤或标尺,系统只看到一串数字。它没有看到3D空间,物体,纹理或绵羊。 它只是看到数据中的模式。
同时,尝试诊断此类问题的挑战在于您的机器学习系统生成的模型(神经网络)包含数千或数十万个节点。没有简单的方法来查看模型内部,看看它是如何做出决定的 - 如果可以的话,那么这个过程很简单,你首先就不需要ML了,你可以自己编写规则。人们担心ML是一个“黑匣子”。(正如我稍后解释的那样,这个问题经常被夸大了。)
那么什么是“AI偏差”或“机器学习偏差”问题? 用于查找数据模式的系统可能会找到错误的模式,您可能也没有意识到。
AI偏差场景用例
这个问题可以表现出来的最明显和最直接的关注点是人类的多样性。据 报道 ,亚马逊最近曾尝试建立一个机器学习系统来筛选简历以进行招聘。由于亚马逊目前的员工群体偏向于男性,因此“成功招聘”的例子在机械上也会使男性产生偏差,因此,该系统选择了简历。亚马逊发现了这一点,该系统从未投入生产。
这个例子中最重要的部分是据报道,即使在简历上没有明确标明性别,该系统也表现出这种倾斜。该系统在其他事物中看到了“成功员工”样本集中的模式 - 例如,女性可能会使用不同的词语来描述成就,或者在学校中进行过不同的体育运动。当然,该系统不知道什么是冰球,也不知道人们是什么,也不知道“成功”是什么 - 它只是对文本进行统计分析。但是它所看到的模式并不一定是人类会注意到的东西。
它变得更糟。一个非常善于发现苍白皮肤上的皮肤癌的机器学习系统可能更难以在深色皮肤上发现皮肤癌,反之亦然,可能不是因为样本中的偏差,而是因为您可能需要以不同的方式构建模型首先要挑选出不同的特征。
即使在像图像识别这样的狭窄应用中,机器学习系统也是不可互换的。您必须调整系统的结构,有时只是通过反复试验,以便善于发现您感兴趣的数据中的特定功能,直到达到所需的准确度。但是你可能没有意识到系统对于一组而言准确率为98%,但对于另一组而言只有91%准确(即使该准确度仍然超过人类分析)。
我们将使用ML来做很多事情,样本偏差将成为所有这些问题的一部分考虑因素。同样,即使您与人合作,数据中的偏差也可能与人无关。
AI偏差管理
我们该怎么办?您可以将现场思维分为三个方面:
- 在训练数据的收集和管理中的方法严谨性
- 用于分析和诊断模型行为的技术工具。
- 在产品中部署ML的培训,教育和谨慎。
样板偏差关键是来自于我们自己先验地可能对不同的人群数据有偏见。
在这种情况下,我经常将机器学习与数据库进行比较,特别是关系数据库 - 一种新的基础技术,它改变了计算机科学的可能性,改变了更广阔的世界,成为了所有东西的一部分,我们现在使用一直没有注意到。
但数据库也存在问题,而且问题具有相同的特征:系统可能建立在错误的假设或糟糕的数据之上,一直使用它的人很难意识到这点更不会去质疑。
比如税务系统中如果登记你的名字写错了,更容易的是让改变你的名字,而不是让他们修改数据库中的拼写字母,这被认为是 SQL 固有的技术问题,Oracle的执行失败,或大型官僚机构的制度性失败?如何轻松地确定部署系统的确切过程,无法修复拼写错误,或者知道在人们开始抱怨之前已经完成了这个操作?
所有这一切都是说,ML偏见会以与过去问题大致相同的方式引起问题,并且可以解决和发现,或者不会,与过去大致相同的程度。因此,人工智能偏见导致最容易想象的伤害的情景可能不是来自主要机构的主要研究人员。相反,它是第三层技术承包商或软件供应商,它将开源组件,图书馆和 工具 中的某些内容与其真正理解的东西联系在一起,然后将其出售给在贴纸上看到“AI”的不熟练买家。不要问正确的问题,把它交给最低工资的员工,并告诉他们做'AI'所说的任何事情。这是数据库发生的事情。这不是特别是AI问题,甚至是“软件”问题。
结论
“机器学习可以做任何你可以训练狗去做的事情 - 但你从来都不能完全确定你训练狗去做什么。”
我经常认为“人工智能”这个词在这样的对话中是无用的。它创造了我们实际创造的大部分错误印象, 这些只是机器,将它们与洗衣机进行比较会更有用 。在洗衣服时,洗衣机比人类要好得多,但是如果你把洗碗机放在洗衣机而不是衣服上并按下开始,它就会洗掉它们。他们甚至会变得干净。但这不是你想要的结果,也不会是因为系统偏向于菜肴。洗衣机不知道什么衣服或餐具 - 它只是一个自动化,它在概念上与以前的任何自动化浪潮都没有什么不同。
也就是说,就像汽车,飞机或数据库一样,这些系统既强大又极其有限,完全取决于人们如何使用这些系统,以及用户的好坏,以及受过良好教育或无知的人这些系统是如何工作的。
因此,说'人工智能是数学,所以它不会有偏差'是完全错误的。 ML在数据中找到模式 - 哪些模式取决于数据,数据取决于我们,我们用它做什么取决于我们 。机器学习在做某些事情方面要比人们好得多,就像一只狗在寻找毒品方面要比人们好得多,但你不会因狗的证据而定罪。而且狗比任何机器学习都聪明得多。
以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网
猜你喜欢:- 一种基于群体特征的比例偏差纠正方案
- 一文读懂机器学习中的模型偏差
- 木兰编程语言重现:不忘初衷,纠正偏差再出发
- 《深度学习革命》作者:人们对AI概念的理解存在偏差
- 软件测试就是挑Bug?也许你有认知偏差
- 观点:AI 的偏差,取决于人们如何使用机器学习系统
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。