年度最理性AI分析文章:预测AI未来,大部分人陷入了7大误区(2)
2024-06-14 来源:旧番剧
错误的预测会导致大家对不会发生的事情感到恐惧。为什么在人工智能和机器人的预测上总有人不断犯错呢?
以下我概括出了7种导致错误预测机器人于人工智能未来的思维方式。我们在很多有关AI未来的预测中都发现了这些思维方式的影子。我首先会列出注意到的4个一般的主题领域,然后就其现状给出我的简要判断。
A、一般人工智能(AGI)。对AGI的研究是将思维实体从机器学习等当前AI技术中分离出来的一次尝试。其想法是我们可以开发出运作非常类似这个世界上的生命的自动代理。不过AI近期取得的成功根本就不是这样的。
一些人认为所有的AI都是AGI的一个实例,但是“一般”这个词意味着AGI的通用性必须要比目前的AI通用得多。把目前的AI解释成AGI的实例会给人一种现在的AI都这么先进的感觉。
但其实目前的AGI研究无论从通用性或者成为持续存在的独立实体来说根本就做得不好。目前AGI基本上还陷入在50年前遭遇的同样的推理和常识问题上。像人工生命、模拟适应性行为等替代领域在上世纪80、90年代的确取得了一些进展,但现在已经止步不前了。
对此我的观点是从原则上来说这当然是可能的。但是可能我们人类还没有聪明到找出怎么做到的办法。哪怕可能性存在我个人也认为目前距离弄清楚如何做出AGI还非常非常远。
B、奇点。奇点是指最终会有那么一刻,一个基于AI有自己目的和目标的智能实体在进行AI研究方面要比我们人类表现还要出色。然后,在摩尔定律的不断作用下,计算机会跑得越来越快,使得人工智能可以自行发展下去,就像物理学中穿越黑洞的奇点一样,我们也完全不知道另一头会发生什么事情。
“相信”奇点的人乐于赋予后奇点的AI不可思议的能力,反正此后会发生什么是相当难以预测的。我之所以给这种相信加上加重引号,是因为对奇点的信念往往会被当成一种宗教信仰。对于一些人来说这种信念还有额外的福利,那就是可以将自己的思想上传到一台智能计算机上,这样既可以获得永生又没有必须相信存在超自然的上帝的不便。永远强大的技术性的AI对他们而言就是新的上帝。技术宗教!
一些人对于拯救日何时到来有着特别的信念——某位特别的奇点先知(注:应该是指库兹韦尔)的信徒认为这一天会在2029年到来。
这种错误的预测很大程度上是受到了指数论的推动。这个后面我会继续讨论,这属于AI预测方面的七宗罪之一。