算法真的没有价值观?公众依然忧虑

栏目: 编程工具 · 发布时间: 6年前

内容简介:用过去推演未来,真的成立吗?

算法真的没有价值观?公众依然忧虑

Photo by rawpixel on  Unsplash .本文来 自微信公众号: 全媒派(ID:quanmeipai) ,原文标题:《算法真的没有价值观?皮尤调查发现 :公众依然忧虑偏见与隐私问题》。

用过去推演未来,真的成立吗?

当算法涌入生活,我们的各项行为都在无形之中受到算法的审度和指点:打开手机App,算法会为我们自动推荐新闻;打开购物网站,算法会为我们自动推荐商品;求职时,HR会借助算法来筛选候选人简历;问诊时,医生也会利用算法来估算病人患肿瘤的可能性……当我们在利用算法的时候,也不自觉地成为了被算法计算的对象。皮尤研究中心针对美国成年人的一项调查显示,伴随着算法的普及,公众正开始对“客观的”算法产生怀疑。

对于支持算法的人来说,算法能够在重要决策中减少人为干预,并提高决策的准确性;对于反对算法的人来说,算法在设计之初就已经带有决策者的偏见,所谓的“算法中立”,不过是对现有偏见和差异的掩饰。

调查结果显示,58%的美国成年人认为,算法不同程度地带有人为偏见。此外,还有公众担心算法的应用会对隐私造成侵犯、会无法捕捉到复杂情况中的细微差别、会将被评估者置于不公平的境地等。以上只是公众从宏观层面对算法的评价,从微观层面来看,公众也对应用于不同领域的算法持各异看法。本期全媒派独家编译皮尤研究中心报告《算法面前的公众态度》 (Public Attitudes Toward Computer Algorithms) ,直击大数据时代下的算法忧虑。

调查方法

该项调查于2018年5月29日至6月11日期间进行,对4594名美国成年人进行了随机访问。调查向受访者提供了四个依靠大数据和算法来进行决策的真实场景,四个场景分别为:

利用算法对顾客进行消费信用评分,以决策交易折扣;

利用算法对假释的人进行刑事犯罪风险评估;

利用算法自动筛选求职者简历;

利用算法对候选人面试进行分析。

此外,该项调查还包括对公众在社交媒体平台上接收到的推荐内容进行考察,具体包括对用户对于算法推荐内容和收集数据的情绪态度考察。

研究发现

第一部分:算法决策将如何影响我们的生活?

调查发现,有四成的美国民众相信算法是“中立”的,即算法能够做出不受人类偏见影响的决策。值得关注的是,年轻的美国民众更加支持“算法中立”观,有50%的18~29岁民众和43%的30~49岁民众认同这种观点,而在50岁及以上的民众中,仅有34%认同“算法中立”。

算法真的没有价值观?公众依然忧虑

具体研究结论如下:

1. 有相当多的美国民众认为,四个情景中的每一个都对被评估者不公平。

算法真的没有价值观?公众依然忧虑

受访民众对于四个场景中算法决策的公平性普遍持怀疑态度,除评估刑事犯罪风险外,其他三个场景中,均有超过半数的受访者认为算法的决策并不是公平的。

2. 公众对于算法在不同场景下的决策有效性存在分歧。

算法真的没有价值观?公众依然忧虑

调查结果显示,公众对于算法是否能有效进行决策存在分歧。

  • 有54%的受访者认为,算法能够有效筛选出优质用户;

  • 近半数的受访者认为,算法能够在刑事犯罪风险评估和简历筛选上做出有效决策;

  • 有39%的受访者认为,算法能够在面试候选人时做出有效决策。

由此可见,在个人消费信用评估这一场景中,公众对于算法决策有效性的判断相差了22%,具有较大分歧。

3. 在对现实生活将产生重要影响的情况下,公众对算法决策的公平性和可接纳性表示密切关注。

算法真的没有价值观?公众依然忧虑

从调查结果上来看,多数人都认为利用算法进行决策时有违公平,只有约三分之一的受访群众认为,利用算法进行个人消费信用评分和简历筛选对消费者和求职者来说是公平的。

而在关于接受度的调查中,大多数美国人都认为,利用算法进行决策是不可接受的,其中,68%认为利用算法进行个人消费信用评分不可接受,67%认为利用算法进行面试决策不可接受,不可接受的理由主要如下:

  • 在不接受利用算法进行消费信用评分的人中,有26%认为这样做侵犯了隐私。

  • 在不接受利用算法来筛选简历的人中,有36%认为自动化流程模糊了招聘中的感性因素;在不接受利用算法来进行面试决策的人中,有16%持同样观点。

  • 人性的复杂决定了算法无法捕捉到每一个细微的差别,尤其是在利用算法进行刑事犯罪风险评估时,这一点显得尤为重要。

4. 对算法决策的态度在很大程度上取决于个人背景。

尽管公众态度在一定程度具有一致性,但是从调查结果上看,公众的态度更有可能受到个人特征和背景的影响。这种影响主要体现在,公众对于利用算法来进行个人消费信用评估和刑事犯罪风险评估的态度上:

  • 对于以商家为主体进行代入的人来说,有54%的人认为这种方法能够有效筛选出优质客户;

  • 对于以消费者为主体进行代入的人来说,只有32%的人认为这种方法是公平的;

  • 同理,有人认为刑事犯罪风险评估对于警方来说是公平的,也有人认为这对申请假释的一方来说是公平的。

此外,公众对算法决策的态度可能因种族和民族而异。只有25%的白人认为,利用算法对个人消费信用评估对于消费者来说是公平的,持同样观点的黑人则有45%。类似地,有61%的黑人认为,利用算法来对假释者进行刑事犯罪风险评估是不公平的,但持同样观点的白人只有49%。

5. 大多数美国民众出于对数据隐私、公平性和决策有效性的整体考量,而拒绝利用算法进行决策。

多数美国民众认为,就调查中作为一种概念加以呈现,算法决策是可以被接受的,但是在实际生活中,他们并不欢迎这种决策方式。从数据来看,68%的受访者表示不会接受由算法进行的个人消费信用评估;67%的受访者表示无法接受求职机构使用算法对面试视频进行分析。

皮尤研究中心在调查的过程中,访问了美国民众接纳/不愿接纳算法决策的具体原因, 数据隐私、公平性和决策有效性是最高频的三个影响因素 。以下是美国民众对于四个真实场景中算法决策的看法,以及全媒派精选的部分受访者发言:

消费信用评分:

31%的美国民众认为,商家使用算法进行征信是可以被接受的,他们的主要看法是:在消费者已经将相关数据公开的情况下,其无权干涉商家的行为,以及征信是商家的自由选择等。例如:

 “我相信商家可以借助现代化技术来判断一个人的财务能力及消费信用,而不是只通过他/她是否按时支付了信用卡账单。”(男,28岁)
 
“这听起来类似于信用卡积分,虽然不是很公平,但是还可以接受。”(女,25岁)
 
“这能够有效地向商家提供信息,以便其将服务和产品与消费者进行匹配。这是件好事。既简化了流程,又降低了调查成本,同时能够使今后的广告投放更具针对性。”(男,33岁) 

68%的美国民众表示,不接受商家使用算法进行征信,他们的主张是:数据的收集会侵犯消费者的隐私,在线数据并不能很准确地反映一个人的财务状况和信誉,以及算法评分可能带有偏见和歧视等。例如:

“它侵犯了消费者在网上自由活动的权利,一旦采用算法进行消费信用评估,人们将不得不隐藏自己的消费行为和购买记录,这是一种无形的‘监控’。”(女,27岁)
 
“我认为商家在未经我的允许下征用我的个人信息时不公平的,哪怕它是为了给我提供优惠,我也无法接受。”(女,63岁)
 
 “算法不可避免地带有偏见,人们在设计算法之初已经确定了数据间的相关性,一旦这样的算法被执行,消费者将没有任何为自己辩白的余地。”(男,80岁)

算法真的没有价值观?公众依然忧虑

刑事犯罪风险评估:

42%的美国民众认为,使用算法进行刑事犯罪风险评估是可以被接受的,他们的主要看法是:这将帮助司法系统在进行决策前获取更多信息,算法可能会比现行的制度更加公平,将算法评估作为决策过程中的一部分是可以接受的。

此外,支持者们的出发点也各不相同,有9%的美国民众认为利用算法进行刑事犯罪风险评估为罪犯们提供了重新融入社会的机会,而另外6%支持该算法决策的民众则认为,此举将确保将有潜在危险的罪犯留在狱中,提高社会环境的安全性。具体观点如下:

“虽然算法存在缺陷,但是当前的决策方式存在更多缺陷。”(男,42岁)
 
“当下,大多数假释决策都是主观的,算法为我们提供了采用客观标准来进行量化决策的可能性。由于主观偏见影响,许多黑人在入狱后都不会得到假释,但是应用算法后,这些少数族裔将得到更加公平的对待。”(男,81岁)

56%的美国民众表示,不能接受以算法来评估形式犯罪风险,他们主张:算法难以捕捉到人类的细微差别,不会将嫌疑犯或罪犯的个人成长经历纳入考量,人类参与缺失也可能会导致最终决策有失公允。具体观点如下:

“应当把‘人’当成独立的个体去对待,而不是基于大众的信息去进行模糊化的决策。即使两个人有相同的信仰或兴趣,这两个人也是截然不同的。”(女,71岁)
 
“大数据通常存在难以被纠正的缺陷,作为一名数据科学家,我必须坦诚,算法无法洞察一个人的灵魂。”(男,36岁) 

算法真的没有价值观?公众依然忧虑

面试表现分析:

32%的美国民众认为利用算法对求职者的面试表现进行分析是可以被接受的,他们认为,公司有权利选择最合适的雇佣者,算法只是辅助公司进行考察的一种工具,此外,算法可能比传统的人力更加客观。具体观点如下:

“在快节奏的现代社会中,利用技术来提高劳动力雇佣效率十分重要。”(男,71岁)
 
“在求职者认同的前提下,我认为借助算法来分析面试表现是可以被接受的。为了聘用到合适的员工,企业往往需要投入大量的人力和物力成本,算法将是一个有用的工具。”(女,61岁)
 
“在面试中使用算法是没问题的,但是如果将算法分析的结果作为最终的决定因素,则有些荒谬。因为求职者在面试中往往会感到紧张,这会影响其真实水平的发挥。”(男,23岁)

67%的美国民众不支持利用算法对求职者的面试表现进行分析。反对方最核心的论点是他们认为算法并不能够胜任人才选拔工作,具体表现在应该由“人”来对对方做出评价,借助算法是对求职者的不尊重,以及算法可能会忽视在非常规领域有才能的候选者。具体观点如下:

“在算法的分析下,那些不具有明显特征和优势的求职者很可能被轻率地淘汰了。”(女,57岁)
 
“如果雇主想要雇佣的是一个鲜活的‘人’,而非机器人,那么面试就应该建立在人与人面谈的基础上。”(女,61岁)

算法真的没有价值观?公众依然忧虑

自动筛选求职者简历:

41%的美国民众认为可以接受雇主使用算法来筛选简历,因为这样做可以节约大量的时间和金钱,基于客观标准的算法也将比人工筛选简历更为公正和准确。此外,公司可以通过对算法的调整来快速定位到自己想要雇佣的人才。具体观点如下:

“你有没有尝试筛选几百份简历?算法可能不完美,但是它效率很高。”(女,65岁)
 
“虽然自己不会尝试,但是我可以接受公司采用这样的方法来筛选简历,在不涉及歧视的情况下,公司有权选择任何筛选方法。”(男,50岁)

57%的美国民众不支持利用算法来筛选求职者简历。他们的忧虑主要围绕三个方面展开:第一,这是对人力资源管理人才工作职责的侵蚀;第二,无法确保算法的公正性和有效性,雇主可能会错过最合适的候选者;第三,简历并不是评价候选者的唯一标准。具体观点如下:

“专业的人力资源管理人才将无处施展才华,会不会有一天HR们的简历也被算法踢在一边?”(女,72岁)
 
“算法将使公司错过优秀的候选者,并且会使员工队伍越来越同质化。”
 
“这听起来就像是一场标准化的入学考试,算法和SAT、ACT相比又有什么区别呢,最终选拔出来的并不是真正有潜力的人,而是那些经过大量的时间和金钱‘训练’出的人。”(男,64岁)

算法真的没有价值观?公众依然忧虑

第二部分:算法如何塑造我们在社交媒体上所浏览的内容?

当前,算法正深刻地塑造着社交媒体格局,即算法可以根据用户的行为来推测出其最喜欢的内容类型,公众的新闻阅读习惯在很大程度上由“主动寻找”转变为了“被动接纳”。这一现象已经引起了学界和社会对于信息茧房和回音廊效应的广泛担忧。

调查结果显示,74%的美国民众认为,社交媒体上的内容已经无法客观反映公众对于社会议题的看法,也就是说,社交媒体已经无法代表公众舆论。具体来看,持这一观点的以白人和老年人居多,黑人和西班牙族裔,以及年轻人对社交媒体的信赖度略高一些。

算法真的没有价值观?公众依然忧虑

具体研究结论如下:

1. 用户在社交媒体上浏览到的内容,是积极与消极的混合体。

在对社交媒体内容的情感态度调查中,有88%的用户表示会在网站上浏览到一些有趣的内容,娱乐是他们浏览此类内容的最重要原因。

此外,调查结果表明,用户经常在以算法为内容分发机制的平台上阅读到不合适的内容。71%的受访者表示,自己曾被推荐过令人感到愤怒的内容,其中,有25%的受访者表示自己经常被推送此类内容。此外,约有六分之一的用户表示自己曾被推荐阅读过含有夸大事实和虚假内容的新闻。

但是,也有21%的受访者表示,自己经常会接收到与好友相关的内容,这让他们感到“与好友产生了联结”。

算法真的没有价值观?公众依然忧虑

2. 年龄和政治立场都是影响用户内容情感态度的重要因素。

研究表明,相较于年龄在65岁及以上的老年用户,年轻人们认为由算法推荐的媒体内容更为有趣。有54%的年轻用户认为,由算法推荐的内容非常有趣,而在老年用户中,这一比例仅为30%。此外,年轻人也更容易接收到令自己感到孤独的内容。

此外,“愤怒”是国会议员们对社交媒体内容的最常见情绪反应。31%的保守派共和党人表示,他们经常因为社交媒体上的内容感到愤怒,在自由派民主党中,这一比例为27%,温和派民主党的比例则为19%。

算法真的没有价值观?公众依然忧虑

3. 在事实真相落定之前,用户经常会在社交媒体上浏览到不实信息和激烈争论。

调查结果表明,用户经常在社交媒体上接触到两种类型的内容:第一类是带有炒作性质或夸大性质的不实信息,有58%的受访者表示自己经常能够看到此类内容; 第二类是意见不同的双方就某件未有定论的事情进行激烈的争论和交锋, 有59%的受访者表示自己经常看到此类内容。

此外,还有相当比例的用户表示自己经常在平台上看到话题错位的帖子和回复,这类内容可以被归纳为无用信息。总体来说,认为自己能够在社交平台上获取到有用信息的用户,不足五成。

算法真的没有价值观?公众依然忧虑

4. 在浏览内容的过程中,用户也会感受到来自他人积极或消极的行为。

大约有一半的受访者表示,自己能够在社交媒体上感受到他人所传递的积极或消极的行为。其中,21%的受访者表示,自己经常看到善意的示好或是支持;24%的受访者则表示,更多地感受到的是人们的自私与网络欺凌。

皮尤研究中心此前的一项研究显示,男性比女性更容易在平台上遭遇骚扰或霸凌行为,在此次调查中,也有更多的男性佐证了这一观点。有29%的男性认为,社交平台上更多地充斥着自私与网络欺凌行为,而女性持这一观点的只有19%。另一方面,这也显示了女性在社交平台上,更多地接收到的是善意的观点和行为。

此外,在假新闻的传播问题上,18%的受访者表示更多地看到的是对假新闻的传播,17%的受访者表示更多地看到的是对假新闻的纠正。同时,男性被指责更多地参与了假新闻的传播,因为男性用户往往更具欺骗性。

算法真的没有价值观?公众依然忧虑

5. 平台的数据应用流向将在很大程度上影响用户在共享个人信息时的“舒适度”。

75%的受访用户表示,如果网站确实能够推荐一些令自己感兴趣的活动或信息,他们很乐意与网站分享个人的部分数据。而如果用于与政治相关的活动,则只有37%的受访用户愿意分享个人信息。

此外,年龄也将影响公众对于算法收集个人数据的看法。例如,在50岁及以下的社交媒体用户中,有三分之二的人认为,系统可以抓取用户的个人信息用以推荐好友;而在65岁及以上的社交媒体用户中,这一比例不足50%。

算法真的没有价值观?公众依然忧虑

本文来自微信公众号: 全媒派(ID:quanmeipai)

*文章为作者独立观点,不代表虎嗅网立场

本文由全媒派© 授权虎嗅网 发表,并经虎嗅网编辑。转载此文请于文首标明作者姓名,保持文章完整性(包括虎嗅注及其余作者身份信息),并请附上出处(虎嗅网)及本页链接。原文链接:https://www.huxiu.com/article/273865.html 未按照规范转载者,虎嗅保留追究相应责任的权利

未来面前,你我还都是孩子,还不去下载虎嗅App猛嗅创新!


以上所述就是小编给大家介绍的《算法真的没有价值观?公众依然忧虑》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

程序正义论

程序正义论

徐亚文 / 山东人民出版社 / 2004-3-1 / 22.00元

程序正义论,ISBN:9787209033916,作者:徐亚文著一起来看看 《程序正义论》 这本书的介绍吧!

html转js在线工具
html转js在线工具

html转js在线工具

RGB CMYK 转换工具
RGB CMYK 转换工具

RGB CMYK 互转工具

HEX CMYK 转换工具
HEX CMYK 转换工具

HEX CMYK 互转工具