- 什么是有效负载?如何控制您的库卡机器人?
- KUKA库卡机械手KR360维修保养技巧分享
- 维修保养|库卡KUKA机器人KR 210维修保养经验丰富
- 库卡KUKA机器人维修保养小手册
- 维修保养|KUKA库卡机器人维修保养干货知识
对话普利策奖获得者DouglasHofstadter:别被当下人工智能假象骗了
对话普利策奖获得者DouglasHofstadter:别被当下人工智能假象骗了
如今的人工智能还只是初步阶段,只能做到尽可能接近地模仿人类智能,却始终超越不了。关于人工智能领域的讨论可能最终会回归到DouglasHofstadter的论点上。自从他在1979年出版的著作《智慧》获得普利策小说奖以来,他一直在默默地研究有关思考的问题,以及如何让计算机来实现这一目标。
在20世纪50年代和60年代人工智能研究的早期阶段,我们的目标是创造出能够模拟人类思考和行为方式的计算机,重塑我们对周围世界的直观理解能力。但事实证明,对于20世纪50年代的计算机程序来说,思考这一行为要复杂得多。研究结果是令人失望的。
不过,最终人们放弃了让计算机思考,转而专注于令它完成非常具体的任务,并向它们提供了大量的相关数据,这导致了我们今天看到的人工智能热潮。计算机可以在国际象棋中击败人类,然而它们不是通过优雅地下一步棋来获得满足感,而是在此前的数百万场比赛中筛选,看哪一步棋更有可能帮助获得胜利。
不过,在2017年,人工智能可能需要解决一个老生常谈的问题:教会计算机如何变得更人性化。人工智能先驱人物GeoffreyHinton最近对Axios说,他对一些方法深表怀疑,比如使用一堆象棋比赛数据来教会它们下象棋。相反,计算机应该能够不依靠数百万个特定的数据点来自主学习,就像人类一样。
在人工智能的所有这些变化中,印第安纳大学的认知科学和比较文学教授Hofstadter,则一直在试图理解思维是如何运作的。他不相信我们现在拥有的人工智能是真正智能的,他担心这个领域已经把人类带到了危险的道路上。外媒与Hofstadter先生(以下简称DH)就人工智能的现状、其中出现的错误、以及未来的危险等进行了讨论。
人工智能的现状:人工智能还是人工智障?
问:让我们来谈谈计算机是如何理解语言的。要想有效地将一种语言翻译成另一种语言,机器就必须对这个世界有深刻的理解,不是吗?
DH:我所理解的翻译是用第二语言创造一个文本,让它和原文一样好。因此,如果用源语言写作的原文文字很美很有艺术感,那么第二语言的文本也应如此。这已经超出了谷歌翻译的范畴。
谷歌翻译的主体不具有理解力。它在各种意想不到的地方都容易出现理解上的偏差。德语中有一句话翻译成英语是:女佣端来了汤。当我仔细研究这个句子时,发现谷歌翻译的说法是:女佣进了汤。它翻译的女仆是正确的,但谷歌翻译这句话中描绘的形象和动作并不具有现实性。
我并不是要侮辱谷歌翻译。我想说的是,你要记住,库卡机器人何服电机维修,电脑所使用的词语并没有赋予它意义。
问:这就是你所说的Eliza效应(Elizaeffect)吗?
DH:Eliza效应指的是,我们使用单词或短语时认为它是有意义的。也就是说,当另一个实体在使用词语并将其输入到屏幕上或说出来时,我们倾向于认为其背后有思考的行为。这可能是极其错误的。
人工智能真的能完全取代人类吗?
问:你认为计算机在没有这种思维的情况下,可以翻译得像人类作品一样充满文学性和优雅吗?
DH:我不这么认为。我真的不这么想。因为我觉得这个世界太复杂了。
问:我们需要创造更多术语来描述人工智能的行为吗,以便进一步说明它并不是什么恰当的智能表现形式?
DH:这是个有趣的问题。我认为我们今天拥有的并不算是智能。我要回过头去谈一谈我比较熟悉的东西,那是几年前的事了,也就是自动驾驶汽车。
这件事发生在我身上,所以它是一个真实的情况。当时我从印第安纳州的布卢明顿市开车到芝加哥来做演讲。一两个小时后,我在高速公路上遇到了一场非常严重的交通堵塞。我离芝加哥还很远,而高速公路已经完全走不动了。那么我要做什么决定呢?我看到有些人正试图驾车穿过南北交通路段之间的草地,我以为他们会在高速公路上往南走,KUKA机器人示教器维修,然后可能下车,走一些更小的路。这是有可能的,但后来我发现有些车被困在了泥泞的草地上。所以我就想:我要去冒这个险吗?
假设我在那等了一段时间,最后又回到了高速公路上。但当时我压力真的很大,要赶去芝加哥。我已经浪费了一个小时,几乎没有时间了。现在我该怎么办?我要承担多大的风险?对我来说,去这所大学发表这堂课对我来说有多重要?如果我打电话说我要迟到半个小时会怎么样?晚了一个小时?所以我开车时思考着,我要不要在限速70英里每小时的区域开到80迈?或者90?我要开多快?
对我来说,这些思考是驾驶的一部分。这才是开车。它表明,现实世界的因素在许多方面可以影响到驾驶。
真实世界并不像象棋或围棋那样有一个方方正正的框。有些情景是毫无边界的,你不知道这个状况下会发生什么,也不知道此状况外又会发生什么。
距离真的人工智能还有多远?只可模仿不可超越!
问:人们会认为机器智能是在思考,这一点有困扰到你吗?
DH:如果你问我,原则上一个计算机硬件是否有可能做一些类似思考的行为,我会说绝对是有可能的。计算机硬件可以做任何大脑能做的事情,但我不认为目前阶段是这样的情况。我们只是在模拟人类思考的皮毛,而很多人却在为这种错觉而雀跃不已。有时这些机器的表现是惊人的。
当我刚接触这个领域的时候,我有这样的感觉:创造出那些看起来似乎会思考的程序是很有趣的,即使它们只会做一些非常有限的思考,却给你一种接近自然人思维的错觉,这一点很有意思。越微妙,就越好。
机器是在慢慢改善的,这个态度让我感到很赞同。这让我觉得人类才是终极目标,人类智慧是一件了不起的事情。换句话说,我的感觉是,计算机智能将会经历一段缓慢渐进的过程来实现人类智能。渐近的意思是它会逐渐接近它,工业机器人维修,但并不会超越它。就像曲线接近直线一样。它会无限接近直线,但是始终是曲线。
但到最近,随着AlphaGo和DeepBlue的各种胜利,人们开始怀疑这两条线是否会出现交叉。人们认为它们在接近,然后相交,并没有渐近线。它相交了,然后计算机那条线继续上升。这和我的想法不同,我不太喜欢这个结果。
人类的思维被淹没在尘埃中这一点令我害怕。不是被计算机辅助或教唆,而是被完全压倒,人类在计算机面前就像是曾经出现在我们面前的蟑螂或跳蚤弱小不堪,如果真到了那一天,那就太可怕了。