首页 > 机器人资讯 > 让人工智能系统更负责任的落地,AINow新报告给出10条建议

让人工智能系统更负责任的落地,AINow新报告给出10条建议

日期:2019-02-21   人气:  来源:互联网
简介:让人工智能系统更负责任的落地,AINow新报告给出10条建议 近日,美国研究组织AINow发布第二份人工智能年度研究报告。这份报告是「AINow」人工智能研讨会的一部分,该研讨会邀请了近百名相关领域内的研究人员,讨论人工智能对社会经济的影响。报告指出,人……

让人工智能系统更负责任的落地,AINow新报告给出10条建议

近日,美国研究组织AINow发布第二份人工智能年度研究报告。这份报告是「AINow」人工智能研讨会的一部分,该研讨会邀请了近百名相关领域内的研究人员,讨论人工智能对社会经济的影响。报告指出,人工智能技术正发展迅速,尚处于早期阶段的人工智能技术正在从人脸扫描、人力推荐以及网络借贷等常见的应用场景中不断渗透到我们的日常生活里。

尽管人们对快速发展的人工智能抱有很大的预期,但是我们也看到了这一高风险的领域正面临巨大的挑战。例如在刑事司法中,非盈利媒体ProPublica的调查小组发现,法庭和执法部门用于预测刑事被告再犯的算法,可能对非裔美国人存在一定的偏见。这一现象随后被许多学者证实。在医疗保健领域,匹兹堡大学医学中心的研究发现,一种用于治疗肺炎患者的AI系统,机器人维修,缺失了一项对严重并发症的风险评估。在教育领域,德克萨斯州的评教算法被暴露出存在严重的缺陷,教师们也成功起诉了他们所在的学区。

或许这些例子仅仅是一个开始,未来还会有更大的挑战。其中一部分原因在于,目前的AI领域缺少标准化的测试模式和审核方法,无法完全避免算法偏差,保障绝对的安全。

然而,这些早期的AI系统正被应用到多个行业,包括医疗、金融、法律、教育以及各种办公场地。这些系统也已经渗透到我们生活的方方面面,它们可以用于预测我们的音乐爱好、生病的概率、适合的工作以及借贷的数额等。

这里的问题不是蓄意对人工智能的滥用。而是人们在使用AI技术的过程中,没有用于确保公平公正的流程和标准,更没有思考它们所带来的社会效应。当研发的药品在推向市场之前,它必须要经过严格的科学测试,并持续检测其中长期的效果。其实高风险AI的应用也当如此。谨慎是非常必要的,因为如果一旦出错,许多人会受到严重的伤害。

作为报告的一部分,AINow还为AI产业的研究人员和政策制定者提供了10条建议。这些建议并不是完整的解决方案,只是进一步工作的起点。AINow称:「尽管AI产品正在迅速发展,但对算法偏见和公正的研究仍处于起步阶段,如果我们想要确保AI系统得以被负责任地部署与管理,需要做的事情还很多。」

建议一:刑事司法、医疗、福利和教育等高风险领域内的核心公共机构不应再使用具有「黑箱」特性的AI技术及算法系统,包括未经审核和验证的情况下使用预训练模型,采用由第三方供应商授权的AI系统及内部创建的算法。

公共机构使用这类系统会严重引起人们对这类法定诉讼程序的担忧。这些系统至少要经历公共审计、测试及审查的过程,工业机器人维修,符合相应的问责标准。

这将带来一个重大的转变:提出的这项建议反映了AI及相关系统已经对部分重大决策产生影响。过去的一年里,也有许多能够作证这一点的研究报告。人们在朝着这个方向迈进,本月,纽约市议会就开展了一项关于保障算法决策系统的透明度和测试的相关法案。

建议二:在发布AI系统之前,企业应该进行严格的预发布测试,以便确保系统不会因训练数据、算法或其他系统设计的原因导致任何错误及偏差的发生。

AI是一个发展迅猛的领域,开展测试的方法、假设以及测试结果,都应该是公开透明、有明确版本的,这有助于应对更新升级以及新的发现。

那些开发系统并从中获利的人应该肩负起相应的测试及保障环节的责任,包括预发布版本的测试。AI领域距离标准化方法的实现还有很长的路要走,这也是建议这些方法和假设需要公开审核和讨论的原因。如果随着时间的推移,AI领域能够制定出具有鲁棒性的测试准则,那么这种开放性是至关重要的。另外,即便在标准化方法中,实验室测试也不能捕捉到所有的错误和盲区,这也是建议三出现的原因。

建议三:在AI系统发布之后,企业需要继续监测其在不同环境和社区中的使用情况。

监测方法和结果的定义需要一个公开、严谨的学术过程,要对公众负责。特别是在高风险决策环境中,应该优先考虑传统边缘化社区的看法和经验。

确保AI算法系统的安全性问题是非常复杂的,是一个针对给定系统生命周期的持续过程,而不是一个完成后就可以遗忘的短期检验。只有在动态的使用案例和环境中进行监测才能确保AI系统不会在假设和领域发生改变时引入错误和偏差。同样值得注意的是,许多AI模型和系统都有通用性,产品可能会采用一些即插即用的附加功能,如情感检测或面部识别等。这意味着那些提供通用AI模型的企业也可以考虑选择已经批准使用的功能,这些经过许可的功能已经把潜在的负面影响和风险等因素考虑在内。

建议四:需要进行更多的研究并制定相应的政策让AI系统用于工作场所管理和监测中,包括招聘和人力资源环节。

这项研究将补充目前自动化取代工人的这一研究焦点,应该特别注意对劳工权利和行为的潜在影响,以及操纵行为的潜力以及在招聘和晋升过程中无意强化的偏见。

围绕AI和劳动力的争论通常会集中在工人流离失所的问题上,这是一个非常严重的问题。然而,了解AI算法系统在整个工作场所中的使用情况也同样重要,KUKA机器人维修,包括行为推动,到检测环节,再到绩效评估过程。例如,一家名为HireVue的公司最近部署了一项基于AI的视频面试服务,可以分析求职者的讲话、肢体语言、语调,从而确定求职者是否符合一家给定公司的「优秀」模型。鉴于这些系统存在降低多样性并巩固现有偏见的可能性,人们需要做更多的工作来充分理解AI是如何融入管理、招聘、调度以及日常工作场所中的实践中的。

建议五:制定标准,跟踪系统整个生命周期的启动、开发过程和训练数据集的使用情况。

这是为了更好地了解和监控偏差及代表性曲解问题。除了更好地记录训练数据集的创建和维护过程,AI偏差领域的社会科学家和测量研究员应该继续检验现有的训练数据集,并努力理解已经存在在实际工作中的潜在盲区和偏差。

依赖于大规模数据,AI才能发现模式并作出预测。这些数据反映人类历史的同时,也不可避免地反映了训练数据集的偏差和成见。机器学习技术山擅长提取统计模式,常常会在试图概括常见案例的过程下省略不同的异常值,这也是不根据数据表面价值进行偏差研究的重要原因。这样的研究要从理解训练AI系统的数据来自哪里开始,追踪这些数据是如何在系统中使用的,而且要随着时间推移验证给定数据集的形态。在掌握这一点的基础上,人们可以更好地理解数据中反映出的错误和偏差,进而研发出能够在数据的开发和采集中识别这种情况并将其削弱的方法。

建议六:以跨学科视角看待AI的偏差研究与缓解策略的研究。

免责声明:本网部分文章和信息来源于互联网,本网转载出于传递更多信息和学习之目的。如转载稿涉及版权等问题,请立即联系网站所有人,我们会予以更改或删除相关文章,保证您的权利。