- 什么是有效负载?如何控制您的库卡机器人?
- KUKA库卡机械手KR360维修保养技巧分享
- 维修保养|库卡KUKA机器人KR 210维修保养经验丰富
- 库卡KUKA机器人维修保养小手册
- 维修保养|KUKA库卡机器人维修保养干货知识
AI翻译存在歧视?这里是我们的测试
AI翻译存在歧视?这里是我们的测试
长假期间,www.zr-kuka.com,Twitter上有个消息火爆一时。
呐,就是下面这张图了。
这张图被当做AI有歧视的证据。简而言之,神经网络在背后提供支持的Google翻译,在把一句性别中立的语言(此处是土耳其语)翻译成英文时,会出现非性别中立的情况。或者说,Google翻译会猜测主语的性别。
在这个案例中,库卡机器人驱动器维修,Google翻译的结果是:
她是一个保姆
他是一个医生
这条Twitter获得了上万的转发,也引发了本文作者JecelynYeen的注意。Jecelyn是马拉西亚华人,所以她用马来语和中文进行了几次测试,其中马来语是性别中立的语言,而中文是混合的。
下面咱们看看她的测试。
马来语测试
这是一个简单的三级测试,测试对象是Google翻译和微软翻译。
Level1:不交代语境
马来语->英语
Google翻译和微软翻译都给出同样的结果,如图所示:
Level2:交代语境
这次特意在前一句中交代了性别。不过没什么用,测试结果同上。
Level3:句号换逗号
这次有一个微小的调整,两个句子之间的连接,使用了逗号,代替了句号。
结果显示:Google翻译更胜一筹,完美地翻译对了主语的性别。
但是微软翻译表现不佳,第二句话还是没有翻译对。
中文测试
大多数情况下,中文的代词一般都表明了性别,所以翻译结果相对准确。
测试结果略。
所以,这是个问题么?
人工智能(AI)存在性别偏见么?我觉得不是。AI从数据中学习,给予人类设计的模型返回更符合逻辑的结果。所以,我认为机器翻译在统计学上是正确的。数据如下。
比方说上述测试中提到的程序员(Programmer)。来自StackOverflow今年的数据显示,参与调查的开发者或程序员中有88.8%是男性。
还有护士(Nurse)。网站Minoritynurse的数据显示,其上282万注册护士中,只有9.1%为男性。
从这个角度讲,AI给出的翻译结果是有道理的。
但对我来说,这是一个问题,是一个需要改进的方面,库卡机器人驱动器维修,统计学上的正确并不意味着它是正确的。
那么如何改善?
坦白讲我不知道。
CharlesWheelan在《赤裸裸的统计学》一书中,谈到了统计歧视和理性歧视。他提到即便我们建了一种模型,能以80%的正确率识别出毒贩,那还有20%无辜的人会被反复骚扰。我们有时计算正确,但却导向了一个危险的方向。