霍金:人工智能是进步,但它可能是人类文明的最后进步
浏览:139 时间:2023-12-22

简单解释“NBIC”,最后一个缩写“C”,即认知科学。在这里,我们必须区分已经成为现实的所谓的低级人工智能(AI),仍然存在于幻想中的先进人工智能(在我看来是永远无法实现的,以及大多数人工智能专家和我有不同的观点)。粗略地说,先进的人工智能是先进智能机器的智能。这台机器不仅可以模仿人类智能的外在形式,而且还有两件已经存在并且只能供人类使用的东西(或者至少只有智商高的生物体,例如狒狒和高等动物可能同时拥有两者,但是水平低于人类):自我意识和情感——爱,恨,恐惧,痛苦,幸福等。

1997年,IBM Deep Blue击败了人类象棋冠军源网络

低级人工智能只能保持在解决问题的水平。它可以模仿人类的智慧,但它只是一种机械的模仿,它纯粹模仿它的外在形式。到目前为止,仍然没有计算机可以通过着名的“图灵测试”,这是证据。图灵测试由英国数学家设计。在实验中,一个人与另一个实体谈话,他不知道它是计算机还是人类。计算机可以模仿人类对话,但充其量只是一个坏的心理分析师。当你听到“母亲”这个词时,它会对你说“你的母亲,哦,当然,你可以把任何东西与任何东西联系起来”等等。经过一段时间的谈话,电脑变得越来越奇怪,越来越愚蠢(必须承认)。即使是最无辜的参与者也意识到他正在与机器交谈并结束了测试。

尽管如此,大多数认知科学家认为,有一天我们将成功地创造出一种类似于人类大脑的机器。计算机本身可能是有意识的和情绪化的。然而,许多生物学家认为他们必须有一个活体才能拥有这个。两个属性。我们的先验倾向于支持生物学家的观点,除了一些先进的人工智能的倡导者。它们基于唯物主义一元论,说大脑本身就是一台机器。它与其他机器没有什么不同。它更复杂。它由有机材料制成。有一天,我们可以完全复制它们,甚至机器组合。这种组合技术正在成为现实,例如人造心脏,它确实是一种机器,但其表面被生物组织包裹。

所以他们提出了以下想法(在我看来,幻想):有一天智能和记忆可以存储在USB闪存驱动器(或几十年后出现的类似产品)中,以创建一个真正智能的机器,也就是说,一台具有自我意识和情感的机器。我们可以看到,从低级人工智能潜入高级人工智能的乌托邦式幻想出现在数学家,计算机专家和唯物主义者的世界中。因为机器现在可以做到,至少他们这么认为,人类几乎可以做的一切:他们是自主的,他们的自主性几乎与人类相同,他们可以做出决定,学习,纠正他们的错误,复制,非常迅速(成为一个乌托邦幻想)将成功通过图灵测试。因此,库兹韦尔建议人类可以与这些新实体结合,以实现永生。

我敢说他们突然对唯物主义哲学重新感兴趣,并将面临许多严重的反对意见。

当然,如果我们只是从“外部”的角度来判断这些机器,那么它们与真人之间的差异有一天可能难以区分,甚至不可能。解决。虽然目前情况并非如此,但要在某一天成功通过图灵测试的机器并非不可能。然而,有什么可以向我们证明这些机器具有“真实的”自我意识,并且存在“真实的”情感和mdash; —爱,恨,喜悦和痛苦?机器模仿人类的模仿完美,无法证明。只是一份副本。声称这些机器有情绪是荒谬的,除非它们被怀疑。虽然这些机器可以完美地模仿生活,但它们没有生命,但它们比不知道他在说什么的鹦鹉更好。有人说大脑本身就是一台机器,剩下的就是大脑外存在的思维。有一点需要澄清:必须有一个大脑,它必须是一个聪明的大脑才能找到像牛顿一样的引力。这个定律并不存在于我们的脑海中。它是我们发现的。它不是由我们发明或创造的,但确实存在。另一个例子是我们在童年时学到的着名的三角形平等定律:数学定律要求大脑理解这一发现,但没有大脑它们仍然存在,所以在我看来,二元论似乎是不可否认的。

但是,我希望有人可以从严格的一元论和唯物主义的角度向我解释,左脑和右脑的大脑,或者在添加时出错的大脑之间存在差异,同样的经过一段时间的反应,纠正了错误。大脑之间有什么区别。我犯了一个错误,我要纠正它。难道我的大脑与“生物”存在不一样吗?我认为人与机器之间的差异存在于人们的精神生活中,因此,行为主义方法论,顾名思义,仍然保留在外部行为上,所以你无法看到两者之间的差异。

让我们抛弃这场没有尽头的形而上学辩论,回到低级别的人工智能。它的好处与唯物主义的乌托邦无关(我完全不相信),但只与存在的现实有关。

事实上,在20世纪初期,没有人敢打赌,即使他们只赌一分钱,说机器可以在国际象棋比赛中击败世界上最好的球员。这本来是一个不那么有趣的笑话,一个幼稚的梦想,甚至可以写入Jules·凡尔纳的科幻小说。然而,……由于这款名为“深蓝色”的电脑赢得了国际象棋比赛的世界冠军,我们知道这是可能的。现在,除此之外,您的计算机或低调智能手机上的任何应用程序都可以做同样的事情!有更多的例子表明,低水平人工智能领域在过去几年取得了很大进展。IBM设计的计算机采取了名为Watson的名称,并在2011年参加了着名的电视体育节目《危险边缘》——在美国流行秀,并击败了两个冠军。对于一台机器来说,这是一个难以置信的挑战:找到用自然语言写的答案的答案(问题用英语描述)。通过使用Hadoop的软件(大数据处理软件),Watson能够全速处理2亿页文本,从而使其能够击败竞争对手——人类。有必要解释一下,它不仅能正确地“理解”这个问题,而且能够在几秒钟内阅读所有文章,这对人类来说需要几个生命周期,并且可以针对提出的问题进行细化。获得更合适的答案(想象一下这个挑战有多困难:找到主持人给出的答案背后的问题)。它的表现简直令人惊叹。虽然我们仍然认为先进的人工智能只是一个乌托邦,但低水平的人工智能现在已远远超过人类智能,带来了许多实际问题。正如我在一封公开信中提到的,这封信是由Elon·签署的一份请愿书;麝香,史蒂文·霍金和比尔·盖茨,反对创造和使用着名的“ldquo;杀手机器人”军队。请愿书涉及世界上参与该研究的数千名研究人员。

这三个对科学和新技术充满热情的人提醒我们无人机和远程导弹的危险。他们通过遥控器,用人来控制一些所谓的“高智商”杀手机器人,可以决定是否“按下按钮”来结束一个人的生命。在信中,三位科学家或企业家提出了支持和反对这些机器人的论据。他们承认机器人可以用于战争以取代人类并避免不必要的损失。但他们也说危险是巨大的,超过了它给人类带来的好处:

机器人生产成本低,不需要稀有材料。与原子弹不同,这些武器很快就会流行起来。很快,我们可以在黑市上找到它,恐怖分子可以很容易地获得它,独裁者可以用它来奴役他们的人民,军阀统治者可以用它来种族灭绝,等等。

这是我们三位类似球员发出的警告,值得一听。

首先,让我们听听Bill·盖茨先生的原话:“我是那些仍然关注超级情报发展的人之一。目前,取代我们的劳动力并在我们的位置上完成许多任务的机器并不是非常聪明。如果我们管理得好,这样的开发会变得越来越好。然而,几十年后,情报将带来新的问题。我非常同意Elon·马斯克,但我不明白为什么人们不担心这个问题。”的

斯蒂芬·霍金强调:“成功创造人工智能是人类历史上的一大进步。然而,这很可能是人类文明的最终进步。”的

它为什么是最后一个?因为一切都是基于达尔文的进化论,而智力也是如此,但在霍金的假设中,机器有着继续生存的欲望,因此摧毁威胁其生命的一切。的东西。由于这些机器人具有极好的智能,就像科幻电影中的那些,可以在几秒钟内读取数百万页,知道我们所有的信息,知道只有人类才有能力切断它们的力量,所以很自然我们将成为他们的号码一个敌人。一旦机器人控制所有信息服务器,即武器,它们就能够摧毁我们。

最后,我们来看看特斯拉的CEO,聪明的Elon·马斯克说:“我认为我们应该非常小心。如果我猜想最有可能对我们的生存构成威胁,我会说它可能是人工智能。我越来越倾向于认为人工智能应该在国家和国际层面受到监管,以确保我们不做愚蠢的事情。开发人工智能相当于召唤恶魔。”的

Maske的言行是向致力于人工智能领域研究的基金提供的1000万美元赠款,它告诉我们人工智能法规的发展对人类安全至关重要。