http://pcpaper.cnwomen.com.cn/Img/2017/4/m2017041804d4c9218e6341b68e29c67faac6568a.jpg
人工智能机器人已经不再是新奇之物,但是你知道它们连种族主义和性别歧视都学会了吗?去年三月微软的AI在推特上线,短短24小时之
http://phpaper.cnwomen.com.cn/content/2017-04/18/037759.html

等待处理…

当人工智能学会了性别歧视

2017/4/18

人工智能机器人已经不再是新奇之物,但是你知道它们连种族主义和性别歧视都学会了吗?去年三月微软的AI在推特上线,短短24小时之后机器人突然开始污言秽语,被网民戏称为“AI希特勒”。而在今年4月14日的《科学》杂志上,美国普林斯顿大学和英国巴斯大学的一个联合团队发表了最新研究,证实了这一现象:AI也会表现出各种偏见和歧视,这些偏见涉及种族、性别、年龄等。当然这种“歧视”可不是简单的算法错误,而是AI“习得”了人类世界的歧视现象。

该研究主要通过“词汇内嵌”(Word Embedding)这个在机器学习中扮演重要角色的工具进行分析。简单来说,在计算机中人类的词汇是以数字串的形式出现的,所以通过分析哪些数字串更为接近,就可以知道AI被内嵌了哪些关联。除了一些简单的同义词关联,研究者们发现AI还被内嵌了一些更为复杂的关联。比如,“女性”和“女人”会和一些艺术和人文方面的职业联系更密切,而“男性”和“男人”会和一些数学类和工程类的职业联系更密切,和我们真实社会中的规训不谋而合。

研究表明,人类社会中现存的不平等和偏见结构会借助新兴技术而进一步加剧。此外存在另一重风险,程序员并没有为AI配置一套像它的人类朋友一样的道德算法,换句话说,AI并不觉得自己的歧视言论有何不妥。同时,研究者也表示无须过分夸大其危害,毕竟机器人还没有“学会”说谎掩盖真相。真正的问题在于,如何在不剥夺AI对人类语言的理解能力的情况下,消除算法的偏见。

(源自UNESCO媒介与女性教席)

上篇:基因检测真有那么神通广大?
下篇:研究预测全球变暖不会增加雾霾发生率
分享到

© 2019 中国妇女报
ICP备:京ICP备05037313号

↑ TOP