澳门新永利,新澳门永利,澳门新永利官网

人工智能也有歧视和偏见

时间:2019-06-13 16:30  编辑:澳门新永利,新澳门永利,澳门新永利官网

在大多数科幻电影里,冷漠又残酷是 AI 的典型形象,它们从来不会考虑什么是人情世故,既没有人性光辉的闪耀,也没有人性堕落的七宗罪。

然而在现实中,人工智能技术却不像电影里那么没有「人性」,不过这可不是什么好事,因为 AI 的「歧视」和「偏见」正在成为越来越多人研究的课题,而且它们确实存在。

我们先来看几个例子:

COMPAS 是一种在美国广泛使用的算法,通过预测罪犯再次犯罪的可能性来指导判刑,而这个算法或许是最臭名昭著的人工智能偏见。根据美国新闻机构 ProPublica 在2016 年 5 月的报道,COMPAS 算法存在明显的「偏见」。根据分析, 该系统预测的黑人被告再次犯罪的风险要远远高于白人,甚至达到了后者的两倍。

可能你在直觉中也会认识黑人的再犯率会高于白人,但这并不和实际情况相符。在算法看来,黑人的预测风险要高于实际风险,比如两年内没有再犯的黑人被错误的归类为高风险的几率是白人的两倍(45% 对 23%)。

而未来两年内再次犯罪的白人被错误认为是低风险的概率同样是黑人再犯将近两倍(48% 对 28%)。

人工智能的偏见,早已深入了各个领域。

在 AI 技术应用领域,面部识别也是一项广泛使用的应用类型,并且这会成为种族和性别偏见的另一个潜在来源。2018 年 2 月份麻省理工学院的 Joy Buolamwini 发现,IBM、微软和中国公司 Megvii 的三个最新的性别识别 AI 可以在 99% 的情况下准确从照片中识别一个人的性别,但这仅限于白人。对于女性黑人来说,这个准确率会降至 35%。

一个最可能的解释是,AI 的「偏见」取决于背后训练算法训练的数据,如果用于训练的数据里白人男性比黑人女性更多,那显然白人男性的识别率就会更高。IBM 后来宣布他们已经采用了新的数据集并重新训练,微软也表示会采取措施提高准确性。

另一个研究是 Facebook 的人工智能实验室的研究成果,他们发现人工智能的偏见不止存在于国家内部,在不同国家之间也是存在的。

  • 共4页:
  • 上一页
  • 1
  • 2
  • 3
  • 4
  • 下一页




  • 上一篇:医生们说,AI不会取代我们! 下一篇:论证:法律人工智能的起点