首页 > 机器人资讯 > 目前,人类为AI制定的道德框架很失败

目前,人类为AI制定的道德框架很失败

日期:2019-02-21   人气:  来源:互联网
简介:目前,人类为AI制定的道德框架很失败 前不久,一个名为AINow的新研究机构发布了报告呼吁,要进一步提高人工智能对社会影响的关注度。在这个报告发布之后,Wired记者ScottRosenberg对该研究机构的创始人之一KateCrawford进行了访谈。进一步挖掘了该报告背后……

目前,人类为AI制定的道德框架很失败

前不久,一个名为AINow的新研究机构发布了报告呼吁,要进一步提高人工智能对社会影响的关注度。在这个报告发布之后,Wired记者ScottRosenberg对该研究机构的创始人之一KateCrawford进行了访谈。进一步挖掘了该报告背后传递的想法。KateCrawford认为,在人工智能成为一种灾难之前,必须要将其安放好。

KateCrawford,AINow创始人之一。

关于人工智能的道德问题,并不乏报道。但大多数都是轻量级的充满了关于公私合作、关于把人放在第一位之类的陈词滥调。他们不承认人工智能创造出的社会困境有多棘手,也不承认解开这些难题有多么困难。但AINow研究所(一家位于纽约大学的新研究机构)的新报告并非如此。报告指出,科技行业正以一种不容置疑的态势,竞相使用人工智能来重塑社会,这并不会带来任何可靠和公平的结果。

两周前发布的这份报告是由KateCrawford和MeredithWhittaker完成,他们是AINow的联合创始人。Crawford、Whittaker和他们的合作者在一个密集但易于获得的35页报告中列出了研究议程和政策路线图。他们的结论并不是胡说八道:他们说,到目前为止,我们将人工智能保持在道德标准上的努力是失败的。

他们写道:人工智能的新伦理框架需要超越个人责任,在设计和使用人工智能的过程中,工业机器人维修,让强大的工业、政府和军事利益承担责任。当科技巨头开发人工智能产品时,用户同意、隐私和透明度往往被忽视,而只专注于聚合数据,为利润驱动的商业模式服务与此同时,在警务、教育、医疗和其他环境中引入人工智能系统,在这些环境中,算法的失误可能会毁掉一个人的生活。有什么我们可以做的吗?本周,Crawford与我们一起讨论了为什么人工智能的道德规范仍然一团糟,库卡机器人,以及采取什么样的实际步骤可能改变这一局面。

ScottRosenberg(下文略):在新报告的最后,你直截了地方说,当前为人工智能的道德规范制定的框架正在失败。这听起来很可怕。

KateCrawford(下文略):很多人都在谈论我们是如何提出这个领域的道德规范的。但仍然没有一个能够落地的。包括IEEE,Asilomar,以及其他一些组织都带头做了很多的工作。我们现在看到的是高层次原则之间的鸿沟,和大规模机器学习系统日常开发的实际情况。这显然是非常重要且真实存在的。

我们阅读了过去两年出版的所有关于人工智能和算法系统的道德准则。然后我们研究了理想和实际情况之间的区别。现在最迫切需要的是,这些道德准则伴随着非常强大的问责机制。我们可以说,我们希望人工智能系统遵循最高的道德原则,但我们必须确保有某种利害关系。通常,当我们谈论道德规范时,我们会忘记谈论权力。人们往往会有最好的意图。但我们看到的是,人们缺乏对真正的权力不对称如何影响着不同群体的思考。

这份报告透露出来的基础信息似乎是,我们可能发展得太快了,以至于我们没有花时间来做这件事。

我可能会用不同的方式来表达。时间是一个因素,但优先级也是一个因素。如果我们花很多的钱,聘请了许多人去思考和研究这些体系带来的广泛的社会和经济影响,那么我们就会有一个更强大的基础。实际上,谁在创造行业标准说,好,这是你需要经过的基本的预发布试验系统;这是你应该如何公开展示你怎样在不同类型的人群中测试你的系统;这些是你应该如何准备在你的系统或产品背后建立的信心界限?这些都是我们在药物测试和其他关键任务系统中所使用的东西,即使是在城市的水安全问题上也是如此。

但只有当我们看到它们失败时,例如在像弗林特、密歇根这样的地方,我们才意识到我们对这些基础设施的依赖程度,对所有人来说都是安全的。就人工智能而言,我们还没有这些系统。我们需要训练人们去测试人工智能系统,并创造出这些安全与公平的机制。这是我们现在可以做的事情。在将这些系统部署到人类身上之前,我们需要在安全与公平的优先次序上增加一些紧迫感。

在人工智能成为灾难之前,你想要把它安放好。

我认为我们必须这样做。

目前科技行业的格局是由几家大公司主导的。为什么会这样?

这是核心问题。作为这个领域的研究人员,我会去了解我所知道的工具。实际上,我们可以通过提高研究的水平和严谨程度来做大量的工作。我们认为,我们可以做出改变:在这些系统的设计中,谁能获得一席之地?目前,它是由工程和计算机科学专家推动的,他们设计的系统涉及从刑事司法、医疗保健到教育等方方面面。但是,就像我们不希望联邦法官优化神经网络一样,我们也不应该指望一个工程师能理解刑事司法系统的运行机制。

因此,我们有一个非常强烈的建议,即人工智能行业应该从计算机科学和工程以外的领域聘请专家,并确保这些人拥有决策权。如果你已经设计了一个系统,而你已经准备好部署它,那么仅仅在最后引入咨询顾问是远远不够的。如果你不通过刑事司法体系或预见性监管的方式来考虑系统偏见的传播,那么很有可能的是,你正在设计一个基于历史数据的系统,将会使这些偏见延续下去。

解决这一问题不仅仅是技术上的问题。这不是仅仅通过调整数字来试图消除系统的不平等和偏见的问题。

这是一种内部重组的计划。但是现在,情况看起来更像是研究人员坐在外面,他们得到了一些数据,然后他们得出了这些爆炸性的研究结果表明事情有多糟糕。这可能会引起公众的关注,并赢得媒体的报道,但你是如何从内部改变事物的呢?

当然,当我们思考人工智能行业的数据能力和来源时,这并不难。我们应该把这看作是一个底线安全问题。你会影响一个人获得工作,摆脱监狱,进入大学等方面的能力。至少,我们应该对这些制度如何变得更公平、以及这些决策对人们生活的重要性有深入的了解。

我不认为这是个很大的要求。我认为,这些系统中最负责任的生产商确实希望它们能很好地工作。这是一个开始用强有力的研究和强有力的安全门槛来支持这些良好意愿的问题。这并不超出我们的能力范围。如果人工智能将以如此快的速度进入我们的核心社会机构,我认为这是绝对必要的。

你是微软研究院的成员,而MeredithWhittaker则隶属于谷歌。你难道不能走到合适的会议上说,我们为什么不做这个?

毫无疑问,我和Meredith在公司都有一席之地,这就是我们会提出这些建议的一部分原因。我们知道这些系统是如何建立起来的,我们可以明白一些积极的步骤,可以让它们变得更安全、更公平。这也是为什么我们认为在一个独立的环境中工作是非常重要的,我们也可以在科技公司之外做研究,帮助这些系统尽可能地感受到它们将要进入的复杂的社会领域。

免责声明:本网部分文章和信息来源于互联网,本网转载出于传递更多信息和学习之目的。如转载稿涉及版权等问题,请立即联系网站所有人,我们会予以更改或删除相关文章,保证您的权利。