AI教父:AI已具推理能力 可能寻求推翻人类

2023年6月28日,在加拿大多伦多Enercare展览中心举行的碰撞技术大会上,被称为“人工智能教父”的英裔加拿大认知心理学家和计算机科学家杰弗里‧辛顿(Geoffrey Hinton)正在发言。(Geoff Robins/AFP via Getty Images)

【大纪元2023年07月01日讯】(英文大纪元记者Andrew Thornebrooke报导/秋生编译)人工智能开发领域的一位领军人物警告说,人工智能已经发展出初级的推理能力,并可能寻求推翻人类。

       

多伦多大学计算机科学教授杰弗里‧辛顿(Geoffrey Hinton)说,人工智能系统可能会发展出从人类手中夺取控制权的愿望,作为它们实现其它预编程序目标的一种方式。

6月28日,辛顿在加拿大多伦多举行的碰撞技术大会(Collision tech conference)上发言时说,“我认为我们必须认真对待这种可能性,如果它们变得比我们更聪明(这似乎很有可能),而且它们有自己的追求(这似乎很有可能),它们很可能会发展出夺取控制权的追求。”

“如果它们这么做,我们就有麻烦了。”

辛顿因其在神经网络方面的成就而被称为“人工智能教父”之一。他最近花了十年时间帮助谷歌开发人工智能系统,但在上个月离开了该公司,说他需要能够警告人们人工智能带来的风险。

虽然辛顿不认为人工智能天生渴望权力,但他说,它仍然可以寻求从人类手中夺取权力,作为一个合乎逻辑的步骤,以更好地实现自己的目标。

辛顿问道,“总体上说,如果有某种东西比你聪明得多,非常擅长操纵人,而且达到了非常普遍的程度,你有信心让人们保持掌控吗?”

他说,“我认为它们会衍生出(夺取控制权的动机),作为实现其它目标的一种方式。”

人工智能现在具有推理能力

辛顿曾经怀疑,在未来30到50年内能否出现一个能与人类相媲美的超级人工智能(AI superintelligence)。他现在认为,它可能在不到20年内就会出现。

他说,部分原因在于,使用大型语言模型的人工智能系统开始显示出推理能力,而他不确定它们是如何做到的。

他说,“其大型语言模型正在接近(我们),我真的弄不明白它们是怎么做到的,它们可以做一些小的推理。”

“它们仍然无法与我们匹敌,但是它们已经很接近了。”

辛顿描述了一个人工智能系统:该系统接到了一个难题,必须计划如何粉刷一个房子的几个房间。它有三种颜色可选择,其中一种颜色会随着时间的推移而褪色,成为另一种颜色。它被要求在规定的时间内将一定数量的房间涂成特定的颜色,结果,人工智能没有仅仅选择将房间刷成所需的颜色,还决定不去粉刷那些它知道最终会褪色成所需颜色的房间,来选择节省资源,尽管它并没有被编程去这样做。

辛顿说,“这就是思考。”

为此,辛顿说,没有理由怀疑人工智能在未来几年内不会达到,甚至超过人类的智力。

辛顿说,“我们就是一个大的神经网,没有理由否认人工神经网能做我们能做的一切。”

“我们正在进入一个巨大的充满不确定性的时期。没有人真正知道会发生什么。”

2023年2月3日,在一台笔记本电脑上,ChatGPT人工智能软件可以生成类似人类的对话。(Nicolas Maeterlinck/Belga Mag/AFP via Getty Images)

战争机器人将破坏世界的稳定

人工智能甚至可能不需要达到超级智能,就能对人类生存构成风险。

辛顿说,世界各地的军队正在为进行战争制造人工智能机器人,这些机器人可能会寻求控制权以完成其被编程的任务,或者寻求通过挑起更多冲突来扰乱政治秩序。

辛顿说,“它们是致命的自主武器,值得我们深思。”

他说,“即使人工智能不是超级智能,但是如果国防部门用它来制造战斗机器人,那也将是非常糟糕、令人恐惧的事情。”

在那些寻求开发致命性人工智能的国家中,最重要的莫过于世界上最大的两个军事强国:中国和美国。

目前中共政权正在开发具有人工智能功能的致命系统,同时投资于与军事决策、指挥和控制有关的人工智能能力。

与此同时,美国正在为未来做准备,届时世界各国的军队主要由机器人组成,高层预计这种情况在15年之内就会发生。

辛顿说,“我们知道他们将制造战斗机器人,他们正忙于在许多不同的国防部门做这件事,所以(机器人)不一定是好东西,因为它们的主要目的是杀人。”

此外,辛顿建议,由人工智能驱动的致命性自主系统一旦出现,将从根本上改变地缘政治结构,大幅降低那些有能力负担此类系统的国家的政治和人力成本。

辛顿说,“即使它不是超级智能,没有自己的意图……它也将使,例如,富国入侵穷国,变得更加容易。”

“目前,无可奈何的是,入侵穷国都有一个障碍,那就是你的公民会死在战场上;如果死去的只是战斗机器人,那真是太好了,军工企业会喜欢这样。”

为此,辛顿表示,政府应该鼓励人们更多地研究如何保护人类免受人工智能的侵害。简而言之,他说,很多人都在努力改进人工智能,但很少有人研究如何让它变得更安全。

他说,最好的办法是建立国际规则,禁止、限制开发人工智能武器系统,就像在第一次世界大战后《日内瓦议定书》对化学战所做限制那样。

辛顿说,“类似于《日内瓦公约》(Geneva Convention)这样的东西固然很了不起,但是,这些东西总是在灾难发生后才会出现。”

他强调,无论政府在人工智能方面会不会采取什么行动,人们都必须意识到正在开发的人工智能正在给人类带来威胁。

辛顿说,“我认为重要的是,人们要明白,这可不只是科幻小说,也不仅仅是散布恐惧,而是一个我们需要思考的真实存在的风险,我们需要提前想好如何应对。”◇

原文:‘Godfather of AI’ Speaks Out: AI Capable of Reason, May Seek Control刊登于英文《大纪元时报》。

责任编辑:李琳#

抢先评论

发表评论

电子邮件地址不会被公开。


*