- 什么是有效负载?如何控制您的库卡机器人?
- KUKA库卡机械手KR360维修保养技巧分享
- 维修保养|库卡KUKA机器人KR 210维修保养经验丰富
- 库卡KUKA机器人维修保养小手册
- 维修保养|KUKA库卡机器人维修保养干货知识
人工智能或将形成偏见思维
英国警方担心,在他们的行动中使用人工智能可能会导致越来越多的偏见和对自动化的过度依赖。
英国政府咨询机构数据伦理与创新中心(Centre for Data Ethics and Innovation)委托进行的一项研究警告称,机器人维修,警方认为人工智能可能“放大”偏见。
英国皇家联合军种研究所(RUSI)就这项研究采访了50名专家,其中包括高级警官。
种族定性仍然是一个大问题。被拦下的黑人青年比白人青年多。RUSI采访的专家们担心,如果他们根据现有的警察数据进行训练,这些人类偏见可能会进入算法。
报告还指出,来自弱势群体的人倾向于使用更多的公共交通工具。由于数据可能是从使用公共交通工具中收集的,KUKA机器人示教器维修,这增加了这些人被标记的可能性。
人脸识别算法的准确性经常受到质疑。今年早些时候,算法正义联盟(Algorithmic Justice League)测试了所有主要技术,发现算法尤其难以对付肤色较深的女性。
美国公民自由联盟(American Civil Liberties Union)也发布了一份类似的报告,重点关注亚马逊的reko人脸识别系统。当与国会议员进行测试时,它往往错误地标记了肤色较深的人。
这两项研究结果都表明,如果今天公开推广这种技术,可能会造成毁灭性的社会影响。很高兴听到英国当局至少意识到了潜在的复杂性。
RUSI报告说,参与这项研究的专家希望看到为可接受的技术使用制定更清晰的指导方针。
他们希望这将为警察部队提供信心,以一种安全、负责任的方式采用这种可能有益的新技术。
助理警长乔纳森·德雷克告诉BBC新闻:“多年来,警察部队一直在寻求创新,利用技术来保护公众,库卡机器人何服电机维修,防止伤害,我们将继续探索实现这些目标的新方法。”