【大纪元2023年07月01日讯】(英文大纪元记者Andrew Thornebrooke报导/秋生编译)人工智能开发领域的一位领军人物警告说,人工智能已经发展出初级的推理能力,并可能寻求推翻人类。
多伦多大学计算机科学教授杰弗里‧辛顿(Geoffrey Hinton)说,人工智能系统可能会发展出从人类手中夺取控制权的愿望,作为它们实现其它预编程序目标的一种方式。
6月28日,辛顿在加拿大多伦多举行的碰撞技术大会(Collision tech conference)上发言时说,“我认为我们必须认真对待这种可能性,如果它们变得比我们更聪明(这似乎很有可能),而且它们有自己的追求(这似乎很有可能),它们很可能会发展出夺取控制权的追求。”
“如果它们这么做,我们就有麻烦了。”
辛顿因其在神经网络方面的成就而被称为“人工智能教父”之一。他最近花了十年时间帮助谷歌开发人工智能系统,但在上个月离开了该公司,说他需要能够警告人们人工智能带来的风险。
虽然辛顿不认为人工智能天生渴望权力,但他说,它仍然可以寻求从人类手中夺取权力,作为一个合乎逻辑的步骤,以更好地实现自己的目标。
辛顿问道,“总体上说,如果有某种东西比你聪明得多,非常擅长操纵人,而且达到了非常普遍的程度,你有信心让人们保持掌控吗?”
他说,“我认为它们会衍生出(夺取控制权的动机),作为实现其它目标的一种方式。”
人工智能现在具有推理能力
辛顿曾经怀疑,在未来30到50年内能否出现一个能与人类相媲美的超级人工智能(AI superintelligence)。他现在认为,它可能在不到20年内就会出现。
他说,部分原因在于,使用大型语言模型的人工智能系统开始显示出推理能力,而他不确定它们是如何做到的。
他说,“其大型语言模型正在接近(我们),我真的弄不明白它们是怎么做到的,它们可以做一些小的推理。”
“它们仍然无法与我们匹敌,但是它们已经很接近了。”
辛顿描述了一个人工智能系统:该系统接到了一个难题,必须计划如何粉刷一个房子的几个房间。它有三种颜色可选择,其中一种颜色会随着时间的推移而褪色,成为另一种颜色。它被要求在规定的时间内将一定数量的房间涂成特定的颜色,结果,人工智能没有仅仅选择将房间刷成所需的颜色,还决定不去粉刷那些它知道最终会褪色成所需颜色的房间,来选择节省资源,尽管它并没有被编程去这样做。
辛顿说,“这就是思考。”
为此,辛顿说,没有理由怀疑人工智能在未来几年内不会达到,甚至超过人类的智力。
辛顿说,“我们就是一个大的神经网,没有理由否认人工神经网能做我们能做的一切。”
“我们正在进入一个巨大的充满不确定性的时期。没有人真正知道会发生什么。”
战争机器人将破坏世界的稳定
人工智能甚至可能不需要达到超级智能,就能对人类生存构成风险。
辛顿说,世界各地的军队正在为进行战争制造人工智能机器人,这些机器人可能会寻求控制权以完成其被编程的任务,或者寻求通过挑起更多冲突来扰乱政治秩序。
辛顿说,“它们是致命的自主武器,值得我们深思。”
他说,“即使人工智能不是超级智能,但是如果国防部门用它来制造战斗机器人,那也将是非常糟糕、令人恐惧的事情。”
在那些寻求开发致命性人工智能的国家中,最重要的莫过于世界上最大的两个军事强国:中国和美国。
目前中共政权正在开发具有人工智能功能的致命系统,同时投资于与军事决策、指挥和控制有关的人工智能能力。
与此同时,美国正在为未来做准备,届时世界各国的军队主要由机器人组成,高层预计这种情况在15年之内就会发生。
辛顿说,“我们知道他们将制造战斗机器人,他们正忙于在许多不同的国防部门做这件事,所以(机器人)不一定是好东西,因为它们的主要目的是杀人。”
此外,辛顿建议,由人工智能驱动的致命性自主系统一旦出现,将从根本上改变地缘政治结构,大幅降低那些有能力负担此类系统的国家的政治和人力成本。
辛顿说,“即使它不是超级智能,没有自己的意图……它也将使,例如,富国入侵穷国,变得更加容易。”
“目前,无可奈何的是,入侵穷国都有一个障碍,那就是你的公民会死在战场上;如果死去的只是战斗机器人,那真是太好了,军工企业会喜欢这样。”
为此,辛顿表示,政府应该鼓励人们更多地研究如何保护人类免受人工智能的侵害。简而言之,他说,很多人都在努力改进人工智能,但很少有人研究如何让它变得更安全。
他说,最好的办法是建立国际规则,禁止、限制开发人工智能武器系统,就像在第一次世界大战后《日内瓦议定书》对化学战所做限制那样。
辛顿说,“类似于《日内瓦公约》(Geneva Convention)这样的东西固然很了不起,但是,这些东西总是在灾难发生后才会出现。”
他强调,无论政府在人工智能方面会不会采取什么行动,人们都必须意识到正在开发的人工智能正在给人类带来威胁。
辛顿说,“我认为重要的是,人们要明白,这可不只是科幻小说,也不仅仅是散布恐惧,而是一个我们需要思考的真实存在的风险,我们需要提前想好如何应对。”◇
原文:‘Godfather of AI’ Speaks Out: AI Capable of Reason, May Seek Control刊登于英文《大纪元时报》。
责任编辑:李琳#
抢先评论