AI也有偏见?MIT学者呼吁科技公司改善(图)


当人工智能(AI)的学习材料多为白人男性影像时,就会比较适合用来辨识白人男性脸部。
当人工智能(AI)的学习材料多为白人男性影像时,就会比较适合用来辨识白人男性脸部。图为人脸识别示意图。(图片来源:Adobe Stock)

【看中国2019年4月5日讯】随着脸部辨识科技的应用范围越来越广,美国麻省理工学院(MIT)的研究人员却发现,知名科技业者开发的人工智能AI)软件存在歧视问题,系统在辨识深色人种或女性脸部时,错误率偏高。

据《中央社》报导,布兰维妮(Joy Buolamwini)是美国麻省理工学院(MIT)的黑人女性计算机科学家。布兰维妮研究发现,包括微软(Microsoft)、IBM、亚马逊(Amazon)等科技巨头开发的脸部辨识软件存在歧视问题,人工智能(AI)系统在辨识深肤色女性时,错误率较辨识浅肤色男性高出许多。

布兰维妮已成功使微软和IBM等企业开始改善自家系统,但亚马逊却表示反对,并公开批评她的研究方法。

一些人工智能(AI)领域的专家公开支持布兰维妮,呼吁亚马逊停止将自家脸部辨识软件销售给警方。

除了专业人士和企业界以外,布兰维妮的研究成果还引起政界人士的关注。其中一些人士主张,应该为脸部辨识技术的使用范围设限。

《自由时报》报导说,目前的人工智能(AI)大多采用监督式学习(supervised learning),会依照工程师提供的训练资料(training data)推断出规则,再把规则套用在未知的资料上,所以当人工智能(AI)的学习材料多为白人男性影像时,就会比较适合用来辨识白人男性脸部。

《中央社》报导,这种差别性有时可能攸关生死。一份近期发表的研究显示,帮助自动驾驶汽车“看路”的电脑视觉系统,在侦测深肤色行人方面,明显有困难。

布兰维妮说,人工智能(AI)对待不同性别与有色人种都表现出了差异性。她呼吁各大科技公司公平对待所有人,并表示如果人们不去主动包容,将会复制这种根本性的不平等。


欢迎给您喜欢的作者捐助。您的爱心鼓励就是对我们媒体的耕耘。 打赏

看完这篇文章您觉得

评论



看中国版权所有 Copyright © 2001 - Kanzhongguo.com All Rights Reserved.

x
我们和我们的合作伙伴在我们的网站上使用Cookie等技术来个性化内容和广告,提供社交媒体功能并分析我们的流量。 点击下方同意在网络上使用此技术。您要使用我们网站服务就需要接受此条款。 详细隐私条款. 接受