【新闻大家谈】AI海啸 惊悚电影变现实?

AI海啸,惊悚电影变现实?(《新闻大家谈》提供)

【大纪元2023年03月31日讯】大家好,欢迎收看周五(3月31日)的《新闻大家谈》,我是扶摇(主持人)。

       

今日焦点:抓住一点,善用人工智能AI!ChatGPT-4有惊人飞跃,却不可避免撒谎成性;百度“文心一言”成“智障”,中国科技发展现最大瓶颈!


距离人工智能科技公司OpenAI发布ChatGPT,只过去了四个月的时间,但毫不夸张地说,它已经改变了世界。

短短15周内,ChatGPT吸引了来自各领域的数百万用户,不但扰乱了教育系统,还引发了对全球就业市场“末日般的”预测。

就在人们努力消化这一切时,几个月后,ChatGPT和我们挥手告别了,它的第四次迭代ChatGPT-4,在全世界掀起更大波澜。

那么,GPT-4与GPT相比,有哪些突破?它能做些什么、功能多强大?人工智能对人类来说是福还是祸?

另外,中国也在力推百度的人工智能聊天机器人产品“文心一言”,但测试结果却被一些人嘲笑是“人工智障”。什么限制了它的发展呢?

本期节目,我们请来时事评论员杰森博士,和大家探讨这些话题。

【从ChatGPT到ChatGPT-4的飞跃】

扶摇:杰森博士您好,我知道您是电子和计算机工程博士,博士论文研究的就是机器学习,所以聊人工智能(AI)的话题,算是聊回您的本行了。最近一段时间,人工智能非常火,我也知道您很关注这个领域。

杰森:你要是说最近这一波火起来,那我说它实际上就是从去年11月份ChatGPT冒出来以后,最近这个火劲是从那边来的。

你要是更宏观地说,这一段AI是什么时候火起来的?我是说,从十几年前“深度学习”(deep learning)开始以后。

AI这个概念是个很老的概念,50年代就已经出现这样的概念了,当时的话,其实跟现在这个差别很大,只是十多年前有这个“深度学习”以后,整个AI就跟“深度学习”这个概念几乎是一致了。“深度学习”其实就是人工神经元网络做这种学习。

扶摇:哦。现在有关ChatGPT和ChatGPT-4的讨论遍布网络,您能不能给我们通俗地科普一下这两个模型,以及ChatGPT-4有哪些突破。

杰森:这个ChatGPT技术,事实上萌芽在2017年,是基于一个叫做transformer的网络结构。从一个很简单的概念逐渐逐渐地演变到了,越来越大的这种大型网络神经元,大到它的那个网络结构已经跟人脑内部的神经数量是一个数量级的。

你比如说,ChatGPT是基于一个人工智能模型,这个人工智能模型叫做GPT-3.5。GPT-3.5它本身大概有1,750亿个参数,而人脑的话大概有1,000亿个神经细胞。虽然不是神经细胞等同于这个模型的参数,但是你可以至少知道,这个模型的复杂度其实已经和人脑的复杂度差不多了,就是大概在一个数量级上的一个概念。

那么在这样的情况下,就出现了一个概念,就是说实际上这个模型本身它已经是趋近于人脑的复杂度,而它做出来的很多事情,大家也都感觉到和人的智力有点趋近了。

那么最近,有GPT-4,实际上就是另外一个模型了,它的底层那个智慧,就把大脑换了一个。这个大脑换成了从GPT-3.5这个大脑变成了GPT-4这个大脑。

这时候你会发现,同样去聊天的时候,发现这个大脑、这个人聪明的程度已经从GPT-3.5,当时比如说像高中生那样的智力水平,一下子换成了一个大学生、研究生的智力水平,就又是一级飞跃。

从技术上来说,GPT-4参数的复杂度是GPT-3.5的大概650倍。GPT-3.5 刚才我说了,它大概有1,750亿个参数,而这个(GPT-4)的话它大概估计有100万亿个参数。就是它的复杂程度,两三个数量级的区别。当然了,这是一方面,这是技术层面的。

但是,要是从功能角度来说,很明显,它的逻辑推理能力、计算能力、对数学的认知能力比以前要高很多。而且它不光能识别语言,它还能识别图像,你给它输入一个图像,它可以基于你的图像开始跟你讨论、聊天。

【不可避免的事实:AI聊天系统“撒谎成性” 】

扶摇:哦。之前ChatGPT出来,它的功能已经颠覆很多人的想像了,但它也有被诟病的地方,比如给的信息有时候是错的,但还说得头头是道,不知事实的人就被误导了;再比如做错数学题。那这次GPT-4出来,这方面有改进吗?

杰森:GDP 3.5 、GPT-4它的语言模型的机理是一样的。我在我的一期个人频道节目中专门解释了,只要你用这样的一个机理、这样的一个模型,我们开玩笑叫做“撒谎”,或者说是编造事实这样的事情,它是永远会出现的。

因为对于它来说,它脑子没有事实这个概念,它不像是传统的网络、或者是你去网络上的一个数据库去搜索,它从数据库里头拿出来一个信息,只要数据库的知识是真实的,那拿出来的就是真实的。它不是,它就有点像人脑这个概念,它虽然学了数以百亿,或者数以万亿这个量的信息,但是它并不是把这些信息在人工智能模型里头,按数据库一样一条一条地存下来,它不是,它像人脑一样。

你知道你学了很多知识,你不能在你的大脑中任何一个地方找到你学的某一个知识。你的知识融到了你大脑的整个系统结构里头。它的概念也是这样,它学的过程中,它的每个参数的变化,最后把这个数以百亿、数以万亿的这种信息存进去。

但是等它往出取的时候,它事实上是在生成很多信息,生成新的语言。这个语言是所有学的东西的融会贯通,但是这个过程中,它也可以造出以前没有的东西。这就是为什么你让它编故事它就给你编故事,你让它讲故事就给你讲故事。

但是你逼着它说一些事情,它也可以给你编一些历史事实。你比如说,我当时问它说,你给我找五个小国战胜大国这样的战争案例,它就开始跟我乱说一气。这个对它来说,它都是从它整个这个系统里头生成出一个事情来,它只保证它的语言是通顺的,整个符合你问的这样一个概念。但是,是不是事实这一点,它几乎没有办法完全佐证。

这是这个领域基本上没法解决的,不管是GPT-3.5还是GPT-4,它都有这样的问题,只是它通过后期的再训练,它有个后期二次训练,可以让它撒谎的量少一点。你比如说GPT-3.5它可能40%的情况撒谎,它这个时候(二次训练后)的话,它可以说30%的情况撒谎,它训练半天。但是它不可能这种情况不撒谎,这就是它整个这个属性造成的。

同样的概念,我们知道就像谷歌,它的系统是基于有一个人工智能模型叫PaLM,它最后做出来的那个聊天的问答系统叫Bard,它也撒谎,它也在伪造一些具体的事实。

所以整个来说,撒谎这个概念是不可能完全解决的,它只能是减少。

当然了,你刚才说了,就说它的数学也不是有意做错,数学本身对于这样的数学模型就难。语言的话,它实际上是一个一层逻辑推理关系。就比如说我脑子有个想法,我直接就这种想法说出来。数学它是有一个多层逻辑推理关系。你比如说你要解一个数学题,你要一步一步、每一步都要牵扯很多的逻辑,然后推理、推演很多步。推演很多步、逻辑推理很多步,对于这样的模型难度稍微高一些。

所以,这是为什么数学一直是它比较难解的一个问题。而这个GPT-4通过它特殊的训练,通过大量、更复杂的网络和各方面,它能学的逻辑步数更多一些。比如说,原来比GPT-3.5它能逻辑正确推理两三步,现在可以推理比如说四五步、五六步,那么以前解决不了的数学问题,现在就变的可以解决了,就是这么一个区别。

【大失业潮即将来袭?】

扶摇:哦,是这样。您刚才提到,GPT-4现在已经像大学生、研究生的智力水平了。如果人工智能聊天机器人这么发展下去,它会不会抢了很多人的工作?大家已经开始担心这个问题了。

杰森:它取代人的很多工作,这是必然的。你比如说现在我们就说翻译这事吧,网上有一个人开玩笑说,他就把随便一个世界名著,原文是法文的、原文是英文的无所谓,灌给它,它大概半个小时、十几分钟全部翻完。翻完了以后,你会发现基本上文字各方面稍微改一点,基本上就差不多了,没有大的问题。

这样的事情对于人来说是不可思议的一个过程,而翻译只是它能做的简单的事,而且大部分人一辈子他能翻译……(成为)一个语言的翻译家都不错了。而这个是全世界50多种语言、100多种语言,它全都能翻译。而且本身来说,它也可以编程,甚至可以做一些总结,甚至有很多创意,就比如说给小孩起名字,或者给某一个项目给你一些建议等等,它都是可以做到的。

网上大家在总结说,哪些工作可能会被取代,现在有20多种工作。复杂一点的,比如说程序的工作它还取代不了,虽然它能编程,但是它编程的能力还基本上是简单的程序能编,难一点的、中等难度的程序编得就不太好了,难的程序基本上就不搞了。

所以说,程序员你可以知道,一些稍微技术高点程序员,它是无法代替的。但是确确实实,你比如说刚才我说的,翻译的活,公司里头做文书文秘的活,或者说其它的很多事情,包括tutor(辅导),就是给小孩教文学上的东西、或者甚至教一些简单的数学上的东西,这些东西很可能。或者说一些比如说是旅游计划,就是travel agent(旅行代办人)旅行的安排事了,等等这样的。这些估计都有可能会逐渐逐渐地,要么是大量人员减少,要么就是被它替代,这都是可能的。

【AI系统的普及 与人类能力的退化】

扶摇:嗯。您觉得按照这个势头发展下去,人工智能系统不长时间就来一个能力的大升级,它的应用越来越广,不但让很多人失业,人类对它也会越来越依赖吧?这样一来,人的自身能力是否会出现退化现象?

杰森:是的,这个实际上是我看到的很严重的、潜在的一个问题。其实当一个新的技术出来以后,你会发现人相应的那个能力就开始退化一些,就是有这样的情况,我说的是社会平均现象。但是智慧的人,他不会让自己能力退化、完全依赖科学。

比如我举个简单的例子,计算器这个东西,计算器出来了,你作为学生,你还应该去认真学加减乘除,学你自己的心算、口算能力。你不能说有计算器,这些东西到时候我随时按。因为很多时候你在跟人讨论问题,甚至做出一些决定的时候,你是不方便立刻用计算器的,而且有些就是快速的、概念化的一个判断、一个量化判断。

那么这个时候,你对数字、对算术的这样一个理解力,会加强你的判断力,会使你的判断、决策更加精准。但是我确实看到了,美国或者有一些西方数学教育,它会淡化、弱化人的计算能力,认为反正迟早会有计算器的。老师教起来也很难,学生学起来也很难,它对这个要求就都会降低。

最近就会出现很多美国人,他对于数学的概念变得非常地不清楚、模糊,以至于有的时候大家会说美国人会经常把自己花破产。为什么?因为他数学确实不是特别好。不是所有美国人,有一部分美国人,因为他面临的教育。

但最后出现,比如说他觉得他银行里放了3,000块钱,3,000块钱在他脑子里留了一个简单概念,就是很多钱,我银行有很多钱。然后他就开始花,今天1,000块钱买个手机,明天500块钱去度个假。结果几次花完,他就加不到一块了,就不知道这个是不是已经快到3,000了,结果等到月底一看,银行帐已经剩负的。

这个其实就是我说的那种概念,就是说,当人觉得我其实有计算器,我什么都可以计算器去做的时候,人放弃自身最基本的能力的时候,这个社会很多问题就麻烦了。

因为那个比如说ChatGPT,你不能随时随地都可以上电脑去回答这个问题。你说翻译这个问题已经解决了,所以说以后语言我都不用学了。那么在特殊的情况下,你会发现,你仍然在关键时候,你没法跟你必须交流的那个人交流,如果你完全不学一个语言的话。

但是问题就在于,有这样认识状态的(人)不是特别多。就跟那个计算器出来以后,我发现很老的美国人,他的数学能力可能要比现在年轻人还要好一点,就是有这样的因素在里头。

人类总是这样,当一个新的技术出现以后,一部分人他会仍然努力地维持人具有的能力,但是很多人他会把这个技术放弃掉。这个过程中,其实有的方面很严重,有的方面就不是那么严重。有的人能意识不到,有的人意识到。

你比如说过去的人,谁都能到野外去生个火;很多人你给他块布,他就能给你做个衣服,这个至少在我母亲那一代、或者我奶奶那一代可能都能做得到。现在呢,到我们这一代做衣服其实就很难了,就是给你块布,你能把这个衣服缝在一起其实都很难了。

这就是人类整个的能力因为外在的一个方便,或者因为外在这样的社会大环境,能力都在萎缩、都在下降。就是很多时候体现不到,因为这个社会没有大的变化。但是如果社会一旦出现大的变化,这些系统,你比如说人工智能,它是需要大量的电才能存在的,如果哪天真的没电了,那人类整个社会就会蛮混乱、蛮难说的那样的一个状态。

确确实实有这样的问题,就是说能力越外化,人的能力可能就是越退缩、越萎缩。

【科幻电影惊悚情景 要变现实?】

扶摇:是。人类能力不断退化、高度依赖人工智能的时候,不知道会不会真的有一天出现类似科幻电影中的情节,人类反被人工智能控制。

杰森:这是一个非常关键的概念,就是这个人工智能系统,我们到底怎么样子真正地让它对社会的功效最大化、危害最小化。其中一个最关键的概念,就是把它作为工具,绝对不能把它作为一个决策。就是让它作为你的工具,而不是成为帮你做决策的一个体系。

这个概念说起来大家觉得很明显,但事实上,在具体实施的过程中,要保证每个人都头脑非常非常清醒才能认识到,什么时候我是利用它来给我出谋划策,最后我做决定,还是让它直接就帮我做决定。这是一个每个人每时每刻都可能要头脑非常清晰的这样的过程。

扶摇:是,不过每时每刻保持清醒的头脑,这对人来说是一个很大的挑战。

杰森:其实我们现在已经被大科技公司控制了,比如说,我们用的谷歌搜索、我们社交平台、我们用的邮件、我们用的很多东西,你说哪个不是来自于几个大公司呢?比如说美国大选的时候,这些大公司不让你传递什么消息,你就没法传递什么消息,其实这个概念已经存在了。

当然了,就是说你下面这一步,人工智能如果大家都在用的话,那么人工智能本身确确实实使得……以前你还至少去搜索,搜索了以后看到50个网页,你还去从那个网页一个个看。现在我搜索,它给我一段话、五句话、三句话,那就是我想要的。这个事实上,就让它们控制人的概念更加便利、更加方便,而且更直接。

是的,人工智能这样的一个概念,人会生活得越来越方便,越省事儿。但与此同时的话,确实是对于大公司的依赖,不管是从信息的各方面可能会更严重,也确实是这样的。

如果这些人工智能的概念再跟那个物联网,比如说,有人说把东西冰箱啥的也都跟互联网连起来,那个时候就是说什么时候你冰箱需要什么东西,它都能帮你,是的,能让你省点事儿,不用开个冰箱门看一眼。但是,它确确实实也会给所有这些系统一个机会,就是在控制你的生活,而不是你来管理控制你自己的生活。

扶摇:您说到这,我还想到去年的一条新闻,谷歌从事AI技术研究的高级软件工程师的布莱克‧莱莫因(Blake Lemoine),说自己在每天和机器人LaMDA聊天中发现,LaMDA有自己的意识和灵魂。这在当时引起很大的社会反响。您觉得AI可能有意识吗?

杰森:我倒不这么想。

在我来看的话,本身这些人工智能系统,它作为这个模型,或者摆在那被物化成很多大的机器,它本身是没有灵魂的。真正它确确实实这个灵魂感,是来自于跟它对话的那个人。

你跟这个聊天的过程,你给它的这个问题本身,其实就是给它这个大脑、给它这种人工智能模型里头打一个信息,它给你反馈出一个相应的信息来。给水里头扔一个石头,水发出涟漪,就是这么一个过程。

而这个感情可能是这个测试人员自己引发的感情,比如,他说一个“我觉得你很聪明”,它就回答一个说“哪里啦”。他就说,“喔,这个人好谦虚呀”。实际上是他给这个对话的过程中,用他自己的情绪映射到了这个人工智能系统里头。

当然了,这个人工智能系统的系统本身,基于训练人训练它的这种方式,它可能有一些政治倾向,它可能知识就比如说学了很多中共的知识,那就是中共那边的往出冒得很多;学了左派的东西,左派的东西往出冒得很多。但是本身来说,它没有善恶感,没有本身的意识、没有情绪,它本身其实就是以你可以完全想像是个大的皮层这样的概念,它需要外部激发。

【重复中共谎言 ChatGPT-4暴露政治倾向?】

扶摇:嗯,您的这个观察也很有意思。说到人工智能系统的政治倾向,有人测试ChatGPT-4时发现,当他提出和中共有关话题时,不论是用中文还是英文输入,GPT-4要么重复中共的官方说辞,要么尝试转移话题。

杰森:跟中共这方面的概念……ChatGPT开发它的是OpenAI这个公司。这个公司它自己声称它是想中立,它中立怎么办呢?它基本上,就是说,谁的说法我都表达出来。那么比如说,你要是问它堕胎的事儿,它就把支持堕胎和反对堕胎的说法,它都给你列出来。

那么对于中共这边,它基本上就是很可能把中共那边的宣传也会给你表达出来。当然了它知道,因为各个大公司里头都有很多中国技术人员。全世界的人都知道一个概念就是啥呢?就是说,你骂民主国家的头,民主国家的头不太管,但是你骂比如说中共的头,中共跟你急。这个呢,就是它有点那种欺软怕硬那种感觉。

就是说,它不会说让你不评论拜登。但是,它为了回避中共跟它们找麻烦,虽然现在它没有说要进入中国,但是它还是觉得中国是个很大的市场,它不想跟中共关系搞得很僵。它觉得这方面只要说你,你就跟我急,那么在这样的情况下,我就不说你、回避说你。

这实际上是很幼稚的想法。因为不管你说不说中共,你这样的一个知识,牵扯到知识、牵扯到人生观、世界观这样的一个人工智能系统,它都不会放你进去。你就是跪在它面前恳求,它也不会放你过去。

但是不管什么原因吧,OpenAI它就做了这样的决定,这个决定是它这个公司决定。很多时候,我们感觉上的话,我倒不觉得是中共让它们这么做的,这很可能是它们自己的一个商业、或者说是其它的一个、为了回避矛盾之间的一个决定。

当然了,还有一个技术上的概念。刚才你也谈了,就是有的时候,它好像是中共那边说话多一些。这就牵扯到一个人工智能系统它是怎么产生的这样的一个概念。为什么人工智能系统最开始的名字叫做“机器学习”呢?就是因为它的很多这个,刚才我说了,GPT-4是由上百万亿个参数组成的,而它里头输入的信息也都是上百万亿个这样的信息。

那么这个信息是从网上,从图书馆,或者从各种渠道收集过来的。那么确确实实中文这个领域的话,中共毕竟把持了所有的文宣系统,所有的语言制造系统,你整个中文可能最大的产生地就是中国那个地方,而它如果这样去搜集的话,那么那个地方的信息自然就进入了这个系统。

虽然海外,比如说像大纪元也说一些真相,用中文表达一些真相,但是它的比例毕竟比较小一点。我相信它也会有大纪元的信息量在里头,但是毕竟中共那个信息量在中文领域更多一些。

所以你就会看到,从学习这个量上,就跟人一样,脑子里装的啥就是啥,它也是装的啥就是啥。那么它装了十份中共的说法,装了一份我们这边真相的说法,最后的话,它的展现出来的东西还是中共的谎言因素偏多一点。

这个也是整个机器学习系统不可避免的一个问题。人类信息知识被中共这个谎言系统给腐蚀了,那么你最后学出来的所谓的人工智能,也难免拥有中共虚假信息那样的一个知识积淀。

【AI技术竞争激烈 中共又要“弯道翻车”?】

扶摇:哦,是这样。杰森博士,现在大家都看到智能人工系统的强大了,您预计为会掀起关于AI的“军备竞赛”吗?比如中共会不会又想“弯道超车”。

杰森:AI这个方向,其实从中共的角度来说,它一直认为是有“大国竞争”的因素在里头。在此之前,所谓的AI技术,中共就固化成一个比如说人脸识别技术、或者说是什么语音技术等等。

中共有的时候声称说,我们其实已经有些地方都比美国强了,比如说中国那边总是搞监控,投了大量的钱做人脸识别。中共人脸识别做得是全世界最好。所以中共有的时候吹,就是说人工智能我们已经是世界第一流的了,我们比美国都强了。其实它就是比如说在人脸识别这个方向比较强。

真正的人工智能,就是这一次大家看到了谁是最牛的,ChatGPT出来以后,它所展现的这个能力……中国做人工智能第一的公司事实上是百度,这个公司一看就觉得自己水平……自己也做人工智能,每年也投几百亿、上千亿的做这方面研究,怎么就跟那个差别这么远?但是,它还是努力的推出来它的产品,叫做“文心一言”。“文心”就是它基于的那个人工智能大系统;“一言”是指的它是诸如语言聊天这样的系统。

那么“文心一言”出来以后,大家一用,那个基本上就感觉是……刚才我说GPT-4如果是大学生、研究生的话,那么“文心一言”可能综合能力是个小学高年级那样的状态,差别不是一个数量级的。那么就是说,本身李彦宏,就是百度的创始人、总裁也说了,说我们不跟美国做竞争,就是说我们出来不是为竞争的。但是因为它是没法竞争,整个中美之间在真正的意义上、最现代的人工智能上,实际上是有一个巨大的、几年的差异。

那么对于中共来说,它可能采用的策略,就是历史上像谷歌和百度竞争那样的一个概念。当谷歌技术已经很成熟的时候,百度才刚刚起家的时候,它就把谷歌放进去,让谷歌能在中国存在。但是一旦百度稍微有点样子、有点起色、能用的时候,它就开始把谷歌想尽各种办法挤出来,从中国给踢出去。那么这时候,百度就在中国一家独大。最后,让中国老百姓就只用百度了。

这个过程,很可能也会是目前像人工智能这样的系统软件出现的方式。虽然我们知道了,百度的人工智能系统比OpenAI的差很远。那么在这样的情况下,百度股票先跌后涨,可能其中一个原因也是普遍投资人认为,中共会帮百度把这些竞争对手从中国踢出去,让百度一家独大,或者其它的中国公司独大的,在中国这样环境中开始慢慢慢慢培养,成长它的技术。

在中共的心目中,这就是它“大国竞争”必须采取的一个手段。当然了,对于中国老百姓来说,这是一个很凄惨的过程。我们知道,百度当年一家独大,为了挣钱,最后给大家片面地提供信息,有一个西安电子科技大学的一个学生(魏则西)得了癌症,因为只能搜到百度的信息,最后把钱也花了、医疗也耽误了,最后发现那些信息全都是假的。

实际上这样的事情,未来如果中共持续这么做的话,中国人还会遇到,在人工智能上也会遇到。至少中国人在很长一段时间不能用到真正意义上、最先进的人工智能,而现在西方人工智能这个系统,如果到这个份上的话,对于整个西方社会的整个社会效率,或者说是各方面提升的会非常快。

所以在我看来,中共认为这是大国竞争,这是有竞争的因素在里头。但是这个过程,它们采用的手段是堵、是防,最后使中国可能在这方面发展的反倒会慢一些。

【两大关键原因 拖累中国AI发展】

扶摇:嗯,是的。您刚才提到百度“文心一言”,最近大家都在调侃它,一些网友分享了自己的试用体验,说“文心一言”回答问题的方式挺模式化的,戏称它是Chat-PPT。您觉得中国的这种产品和国外的比,最大差别在哪,是什么造成的呢?

杰森:它有很明显的感性上的区别。你要是说,为什么它们有这么样的差别呢,我感觉可能有几个层面的原因。

一个层面的原因,很可能就是本身确实有些核心技术(差距)。OpenAI虽然是2015年、16年才开始成立的一个公司,它就是一门心思、专注地去做,而且做的过程中可能拿到了一些窍门。最后结果就是它出来的这个模型,而它模型能做的事情,很多其它的大模型它真的还是做不了。

就是大家长的脑子都是一样的都这么大,脑子里头的细胞数量可能也差不多,最后有的人就聪明一点,有的人就不聪明一点,这个原因就是可能有的人他就有一个正确的学习方法,或者有个生活习惯了,最后这个人就比另外一个人聪明一点,这个就是生物学的多样性促成的。

西方这个社会,当然我们看到成功出来的是OpenAI。但事实上,它是一个结果,不是一个过程。西方这边实际上是各个公司,很多公司百家争鸣的,大科技公司、小公司都在做这个事情,最后冒出一OpenAI这样的公司。OpenAI最后成功了,原因就是这种多样性。最后有一家可能碰巧,要么是运气也好,要么是安排也好,它就一下子找到了那个关键点,最后这个技术就突破出来了。

中国那边的话,中国(中共)为了管理方便,它实际上就让中国的大公司变得很少很少,你看你扳着指头算这种大的互联网公司,做这样研究有财力的公司,你就像百度、腾讯、或者是阿里巴巴的这么几个大公司,那么它的多样性就少一些。整个它的研发、尝试的角度、各方面就可能比较专一,最后这些角度可能都不成功。

这事实上就是一个社会管理促成的。大家就说,中国那边为什么都是跟技术而不是创技术,原因就是中国那边它是集团运作。集团运作它能使得一个方向迅速地量化、高效,但是发现新东西的能力就差一点。

就比如说,你派100个人到原野里头去找东西有效呢,还是把100个人编成一个方队,然后齐步走在一个原野里面找东西方便?那肯定是100个人分散找它方便嘛,因为这种有多样性,每个人找的角度、各方面都不一样。你齐步走,但是齐步走的好处就是可以统一迅速地去建一个房子,就是大家都一块齐步走搬砖,一下子把砖就从一个地方全都搬走了。它能解决不同的问题,但是中国那边在创新上一直很慢,就是这么一个现象,这是一方面。

另一方面,刚才我说到了,所谓的人工智能都叫机器学习,就是它实际上是要有一个内容可学的。现在西方这边是全世界东西拿来都可以学,什么语言都行,什么样的内容都行,我都不是个问题。

中共那边,它本身其实对于要学的东西,它是要控制,而且它们获取东西的范围也是控制。海外的一些东西,它可能拿的不方便,国内的东西拿的量很大。而国内最近整个语言就是退化得很厉害。你要是看中国网上的这种语言,各方面它的这种……

西方它有很多很多很高层次的那种讨论语,不管是艺术上的、各方面门类的这种高层次的网络信息讨论。中国那边的网络信息,全都集中在几个大的平台上,你比如说微信,微信它的信息就很难搜到的。你要是真的到互联网上,那个微博啥的,它们提供的信息都是严格被控制的。所以说,中国那边能学到的信息的质量有问题,多样性有问题,各方面学的材料就不如国外这边。

所以总结起来的话,能力就是找窍门的机会,可能不如国外;学的内容受限制,就是那种多样性,不如国外。两个结果,最后它们产生的模型,可能能力就比国外这边差很多。

扶摇:所以您觉得接下来,中国跟西方国家的AI发展差距,会越来越大吗?

杰森:这就看下面一步中国那边它要怎么样解决这个问题。中国那边做这方面研究的人也不傻,他们知道他们的问题所在。而且中国那边有一个最大的特点,就是你一旦搞出来了,我从你那儿不管是偷、还是模仿、还是山寨,速度还是蛮快。

所以,现在OpenAI把整个这个……就是至少搞出来这样的一个东西,境界摆在那了,它知道能达到这样一个状态,那么很可能它会想办法从这边把这个技术往回转。你比如说,最近斯坦福大学就有一些学生就想……建这个模型最难的地方就是这个训练及你学,学的时候你怎么样子……问题、有什么答案,这样的一个知识逻辑过程,你得要用人来做。

当时OpenAI实际上是在非洲、在世界各地低收入国家顾了很多人,手工标识了很多。斯坦福大学的那个研究团它没有这么多人,它怎么办呢?它就是用OpenAI,它就把OpenAI作为它的一个人,它就给OpenAI输一个问题,看一个结果,那我就可以学OpenAI的系统是怎么样回答问题的。

OpenAI这个系统很便宜的,你问很多很多问题才花几分钱,那么这个过程中,它就把它的小模型给训练出来了。那么这个思路,中共很可能他们也会使用,这样的过程就把OpenAI的一套东西至少模仿过来。

它会不会这么做,可能也是个问题。但是至少我说的概念,就是说中共那边它有很多很多这方面的“智慧”。原创的东西不一定有耐心、有耐力放下心去做。努力从别人那模仿这个过程的话,它会有很多很多我们意想不到的“奇思妙想”。所以在我看来,它有先天的不足,你比如说刚才说的学习内容的不足,但与此同时,一旦别人搞出来了,它也有“惊人的技巧”去从别人那山寨过来。

扶摇:是,这么些年看下来,中共确实是这样。◇

《新闻大家谈》制作组

责任编辑:李昊#

抢先评论

发表评论

电子邮件地址不会被公开。


*