人工智能有“白人男性”偏见?

人工智能
2019
05/04
23:01
千家网
分享
评论

原标题:Lack of STEM diversity is causing AI to have a ‘white male’ bias

纽约大学AI Now研究所的一份报告发现,主要由白人男性组成的编码队伍正在导致算法上的偏见。

该报告强调,尽管逐渐缩小,但微软(Microsoft)、谷歌和Facebook等大型科技公司缺乏多样化的代表,正导致人工智能更多地迎合白人男性。

例如,Facebook的人工智能员工中只有15%是女性。在女性只占10%的谷歌,这个问题更加严重。

报告作者莎拉·迈尔斯·韦斯特、梅雷迪思·惠特克和凯特·克劳福德写道:

“到目前为止,人工智能行业的多样性问题及其构建的系统中存在的偏见问题往往被单独考虑。

我们认为,这是同一个问题的两个版本:劳动力歧视和制度建设方面的歧视问题交织在一起。”

随着人工智能在社会上的应用越来越广泛,一些群体可能会因其优势而落后,同时“强化了‘正常人’的狭隘观念”。

研究人员强调了已经发生这种情况的例子:

亚马逊备受争议的reko人脸识别人工智能尤其难以识别深色皮肤的女性,但另一项分析发现,其他人工智能在识别非白人男性时也面临着同样的困难。

一种简历扫描人工智能,它以之前成功申请者的例子为基准。人工智能将简历中包含“女性”字样或就读于女子学院的人降级。

人工智能目前被部署在少数能改变生活的领域,但这种情况正在迅速改变。执法部门已经在寻求使用这种技术来识别罪犯,甚至在某些情况下是先发制人的,以及做出量刑决定——包括是否应该准予保释。

研究人员指出:“利用人工智能系统对种族和性别进行分类、检测和预测,迫切需要重新评估。”“这些工具的商业部署令人深感担忧。”

【来源:千家网】

THE END
广告、内容合作请点击这里 寻求合作
ai
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表 的观点和立场。

相关热点

4月27日,清华大学建校108周年之际,由清华大学电子工程系主办的“清华大学108周年校庆AI高峰论坛暨AI使能平台发布”会议在清华大学罗姆楼隆重召开。本次论坛以“智能+,让AI更使能”为主题,向社会展示清...
人工智能
4月27日消息据CNET日本站消息,SECOM、AGC、DBA(DeNA)和NTT DoCoMo四家公司于4月25日推出了世界首款“虚拟安全系统”,可以使用AI虚拟角色(Virtual Character)进行安保、接待业务。
业界
作为Facebook的创始工程师,扎克伯格在公司创建早期贡献的代码比任何人都多,但是现在,身为Facebook CEO的扎克伯格,已经没有太多机会去亲自编写代码了。
人工智能
一项名为Machine Intelligence from Cortical Networks(皮层网络机器智能,以下简称Microns)试图对于大脑灰质皮层进行“逆向工程”,转换成可为机器所用的算法。
人工智能
虽然欧盟在人工技能(AI)技术竞赛上落后于北美和亚洲,但为建立本土消费者对AI产业的长期信心,欧盟却在构建全球监管框架上走出了第一步。
业界

相关推荐

1
3
Baidu
map