内容简介:微软开发出一套新工具,用来判断AI算法是否存在偏见。AI算法可能会歧视某些人群,微软希望新工具能够帮助企业及时发现,安全使用AI。 微软偏见侦测研究主管里奇·卡鲁阿纳(Rich Caruana)介绍称,新工具相当于“仪...
微软开发出一套新工具,用来判断AI算法是否存在偏见。AI算法可能会歧视某些人群,微软希望新 工具 能够帮助企业及时发现,安全使用AI。
微软偏见侦测研究主管里奇·卡鲁阿纳(Rich Caruana)介绍称,新工具相当于“仪表板”,工程师可以用它训练 AI 模型。他还表示,在 AI 领域,因为经验不足,有些新东西理解的人很少,比如透明度、可理解性、可解释性;还有随时可能出现的偏见,这些都是必须重视的元素。
PABLO DELCAN(图自:MIT Tech Review)
在最近举行的会议上,哈佛机器学习讲师、罗德岛大学 CIO 加布里尔·法耶罗(Gabriele Fariello)曾说,在伦理偏见方面,AI 已经存在严重的问题。他认为,在医疗保健、司法及其它领域,有些决定由 AI 做出,它会直接影响我们的生活。
卡鲁阿纳还说:“好好训练员工,这是企业眼下应该做的最重要事情,这样员工就能知道在哪些环境下偏见会增加,在哪些环境下会显示出来,员工还能开发工具,让模型变得更容易理解,让偏见更容易被发现。”
来自:新浪科技
【声明】文章转载自:开源中国社区 [http://www.oschina.net]
以上所述就是小编给大家介绍的《微软开发新工具,可以防止 AI 算法出现偏见》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- 算法偏见侦探
- 算法歧视?大数据折射人类社会偏见与阴暗
- 谷歌发起包容性竞赛 纠正算法的偏见
- 算法偏见就怪数据集?MIT纠偏算法自动识别「弱势群体」
- 揭秘Google Brain:专注纠正算法错误/解决AI偏见
- MIT SCAIL科学家研究出让AI算法自动消除偏见的方法
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
HTML 压缩/解压工具
在线压缩/解压 HTML 代码
JSON 在线解析
在线 JSON 格式化工具