首页 > 机器人资讯 > 用人工智能预防自杀是善意,但也是道德绑架?

用人工智能预防自杀是善意,但也是道德绑架?

日期:2019-02-27   人气:  来源:互联网
简介:用人工智能预防自杀是善意,但也是道德绑架? Facebook开始采用人工智能(artificialintelligence;AI)辨识用户偏离正常贴文的行为,并对于可能出现的轻生念头发出警告。但这样做合乎伦理道德吗? 在当今高度互连的世界中,我们不断产生和收集如此庞大的……

用人工智能预防自杀是善意,但也是道德绑架?

Facebook开始采用人工智能(artificialintelligence;AI)辨识用户偏离正常贴文的行为,并对于可能出现的轻生念头发出警告。但这样做合乎伦理道德吗?

在当今高度互连的世界中,我们不断产生和收集如此庞大的数据量,甚至已经超出人类能力所能全部过滤筛选的范围了。确实,人工智能的应用之一就是辨识这些贴文上的意图所表现出来的模式与偏差。因此,Facebook以这种方式运用AI,从其大数据(BigData)数据库中撷取价值,虽然可能是出于善意的目的,但也引发对于道德感的顾虑。

为了能够更清楚掌握这个问题,在我不断的搜寻中,找到了一家名为运算研究的普适资料伦理(PervasiveDataEthicsforComputationalResearch;PERVADE)的组织。PERVADE组织与六所大学合作进行研究,并在今年9月取得了资金赞助,目前正致力于制订问题并积极寻求答案。

我很快地与这家组织接触,针对Facebook以人工智能侦测自杀信号的道德问题征询了专家们的看法。后来有机会与该组织的一位成员MatthewBietz取得了联系。

Bietz告诉我,参与PERVADE组织的成员们正在研究普适资料的发展后果,包括不断地收集数据不仅从我们发布到社交媒体的贴文,还来自我们在上网时留下的数字轨迹,例如我们以Google进行搜寻或收发电子邮件。他说,物联网(IoT)和可穿戴设备之间建立起新的联系,进一步促进了我们所处空间的数据主体日益增加。由于这个现像相对较新,因而对于数据伦理提出了值得探索的新问题。

由于Facebook宣布不会将其自杀信号侦测工具扩展到欧盟(EU),我询问Bietz是否因为这项计划会违反欧盟的通用数据保护条例(GeneralDataProtectionRegulatio)?他坦言欧盟确实对于数据保护存在一些世界上最严格的规定,但他补充说,以GDPR的标准来看,Facebook所做的是否违法,目前还不是完全明朗。

数据侦测与欧盟

更准确的说,Facebook正冒险进入一种未真正经试验的优势。但我猜测他们并不想成为测试用例。

Bietz说,Facebook的服务条款使其得以查看数据,因此,这样的行为并不会直接违反GDPR的隐私条例。但是,立法禁止公司仅根据算法或由计算机自动进行分析。

这表示,KUKA机器人维修,如果算法在没有人为介入的情况下决定信号意义,并自行发出警告,那么这样的行为以GDPR来看就是错误的。然而,他说,如果只是利用算法协助决定哪些贴文需要人们多加关照,就可能在在法规允许范围。

道德的雷区

除了法规的问题,Bietz认为,Facebook的自杀侦测途径设定了一种道德的雷区(Ethicalminefield),因为后果是如此的强烈。但这并不表示该公司所做的必然是不道德的,实际上还取决于他们如何处理这些资料,以及Facebook是否值得我们信任。

目前,这是个悬而未决的问题。他表示,当Facebook的营利模式是基于有选择性的信息共享时,是否还能让我们相信它真的将自杀信号数据用于防范自杀以及改善社会问题的目的。为了证明其出于善意,Facebook应该尽快提供信息如何分享的程度,详细说明他们如何使用这些数据,以及如何保有其安全性。但是,Facebook的立场是我们只须要相信他们。

Bietz说,我们现在面对的一部份问题是前所未见的各种新技术及其应用。因此,库卡机器人,目前还没有明确的先例可用于指导道德决定。我们现正探索一个全新的领域,不只是在技术上,在伦理道德方面也是如此。此外,还必须取得一些方向来表达正确的道德问题。

问题与结果

Bietz表示,他赞成运用数据和算法来防范自杀的发生,并指出危机求救热线(CrisisTextLine)采用该方法来优先考虑对最紧急的情况做出反应。但Facebook并未详细说明其计划如何防范自杀,然而,Bietz认为,该公司也不应该自行尝试这项计划。他说:如果我他们与来自公司外部的心理学研究人员密切合作,共同思考这些问题,库卡机器人,我感觉会更好。

所使用的算法质量是也很重要,Bietz补充说。例如,过度谨慎可能会产生误报。但是,Facebook并未表明其算法的性质,或是说明计划如何处理这些热线。它将会持续使用原始算法或随着时间进行调整?同样地,Facebook并未透露任何细节。

我们能够信任Facebook是合乎伦理道德的吗?由于社交媒体平台能够取得太多有关于我们的信息,现在必须提出这个问题。它不仅能从我们的历史讯息中辨识个人行为标准的模式,还可能根据朋友的贴文推断我们并未分享的信息。

Bietz指出,我们的社会从来没有经历过这种范围缩小到个人层级的监控精确度,再加上这是一个数百万Facebook账号的庞大社群。如今,在这个全新的数据新世界,我们必须积极地寻找道德的界线。

免责声明:本网部分文章和信息来源于互联网,本网转载出于传递更多信息和学习之目的。如转载稿涉及版权等问题,请立即联系网站所有人,我们会予以更改或删除相关文章,保证您的权利。