贾开:ChatGPT是更接近人脑的智能技术吗?

ChatGPT的迅速崛起在当前掀起一股舆论热潮。与技术进步的传统争论多数处于技术乐观主义与技术悲观主义之争的范畴不同,围绕ChatGPT的争议似乎更加分化:富有科幻想象色彩的自媒体在渲染这项新技术可能产生的影响,而来自技术社区的声音则质疑这项技术的创新性和颠覆性。然而,无论如何,ChatGPT已经推动全社会正在经历自2016年AlphaGo之后的又一次人工智能“洗礼”:AI技术取代人从事某些属于人脑创造性的工作,已发生在眼前了。在技术以超出人们预期的方式快速发展的背景下,究竟应如何认识及定位智能技术的价值及其局限,突显出极为重要的意义。本期推送的文章通过回顾科学革命、智能革命两个领域的历史性争论,展示了ChatGPT争论背后的技术理念和科技哲学。在本文看来,体现“浅层解释”理念的ChatGPT只应被视为智能技术探索路径上的一种选择,其不应作为不能被改变的技术前提。以“多重技术路线探索”的眼光来认识ChatGPT并确立对其恰当的定位,可能是更值得追求的分析态度。

本文作者:贾开:电子科技大学公共管理学院副教授。

ChatGPT的兴起与争论

在新一代人工智能技术的发展应用史上,我们当前正在经历2016年AlphaGo战胜李世石比赛之后的第二个高潮:ChatGPT的推出使得普罗大众第一次亲身感受到了新一代人工智能的“魅力”与“魔力”。无论是文本、图片还是视频,ChatGPT以其流畅的对话、连贯的逻辑,扮演着一个无所不知的百科全书式“人物”。面对这样突如其来的冲击,许多人在惊讶于人工智能进步性的同时,也哀叹着人类智慧的终结。

但并不是每个人都为ChatGPT所折服。事实上,在(自)媒体对于ChatGPT铺天盖地的赞誉之外,仍然存在着大量的批评,而这尤以技术社群为主。Gary Marcus和Yann LeCun就是代表性的两位。Marcus认为ChatGPT“只是语言顺序的模型,而并非世界如何运行的模型(models of sequences of words, not models of how the world works)”[1] 。换言之,尽管ChatGPT能够生成合乎语言逻辑的内容,但这些内容并不一定是现实本身。正如OpenAI的首席执行官Sam Altman本人在推特所言,使得ChatGPT“稳健和真实(Robustness and Truthfulness)”仍然有很多工作需要做。[2] 事实上也正因为此,ChatGPT可能将进一步放大假新闻(例如社交媒体机器人)的影响,便成为包括Marcus在内的诸多人的深切担忧。

不过另一方面,任何技术创新都存在负面影响已经为人所共识,因而Marcus的质疑同样可被理解为对于ChatGPT更全面的介绍而非对其的否定——与之相比,LeCun的反思更为深刻。虽然LeCun作为Meta首席AI科学家存在利益相关方身份的可能偏见,且其也的确为Galactica模型“生不逢时”而遗憾不满,但这并不影响LeCun对语言模型的深刻批判。早在2022年8月的一篇文章中,LeCun便与合作者提出,大型语言模型只是“浅层理解(shallow understanding)”而远不能接近人的智能。[3] 在针对ChatGPT的批评中,LeCun直接提出“在通往人类级别的智能道路上,大型语言模型是一条歧路(off-ramp)”。

由此,LeCun事实上将围绕ChatGPT的争论引向了关于“人工智能是什么”以及“如何实现人工智能”的一般性讨论。当ChatGPT成为新一代人工智能的第一个全民级应用时,这一问题被再一次迫切地摆上了台面:如果ChatGPT代表了通用性人工智能的未来(或者说,ChatGPT是更接近人脑的智能技术),那么这将意味着技术决定论的胜利以及人文主义的消亡,当前社会的大部分乃至全部传统制度都将需要在此前提下加以修正或替代;反之,如果ChatGPT并不是通用性人工智能的希望,则我们仍然需要面对的是技术、社会、政治相互影响的多重可能性空间,而这也将再次为政策选择留下机会。

正是在此意义上,我们有必要在ChatGPT的契机下,再次回顾历史上关于智能革命,以及更一般的科学及科学方法革命的持久争论,从而能够以更长期的视角看待短期内出现的技术突破究竟具有何种层面上的革命意义与局限。

机器智能的前序:

科学及科学方法革命的历史争论

LeCun关于大型语言模型只是“浅层理解(shallow understanding)”的理论洞察,与科学哲学家迈克尔·斯特雷文斯关于近现代科学是“浅层解释”的判断,一脉相承,其事实上反映了科学哲学史上的一个关键争论。

围绕“近现代的科学革命为什么发生”,以及“科学革命的本质是什么”等诸多问题,历代科学哲学家给出了不同的理论解释框架。卡尔·波普尔以批判归纳原则为起点提出了“证伪”原则,进而将科学家以及科学方法视为“智性诚实、敏锐批判”并充满“热情、勇气、想象力”的真理探索过程——但托马斯·库恩不这么看,其对“范式”概念的塑造恰恰挑战了波普尔的“证伪”原则。库恩从认知心理学视角出发,认为科学家根本不具备波普尔所言的“批判”能力,科学家以及科学方法都是特定范式之下的“囚徒”,而当一个范式的预测能力在逐渐展开的社会复杂性环境中逐渐变低时,范式的变迁才会逐步展开。相比于波普尔的“乐观”与库恩的“悲观”,斯特雷文斯在《知识机器》一书中提出了更为中立的新观点。在斯特雷文斯看来,近代科学革命应该被理解为“以取得经验验证的局域性因果解释(浅层解释)为目标的科学共同体规范”的形成过程,而这也被其成为科学的“铁律”。与波普尔、库恩抽象地看待“科学”及其结果不同,斯特雷文斯更为具体地强调了科学作为“浅层解释”的实质内涵。

所谓“浅层解释”,是指近现代科学抛弃了传统科学哲学家试图理解现象本质及其因果关联的努力,转而致力于追求可观察现象的精确描述与推导解释。在斯特雷文斯看来,实现这一转变的第一人就是牛顿。在解释天体运动时,牛顿不再沿袭亚里士多德、莱布尼茨、笛卡尔等人对于引力本质的猜测性假设,而是仅关注引力现象本身,并通过对该现象的精确描述以预测其未来运动。无论是亚里士多德、莱布尼茨所认为的超自然特质(超距作用)假设,还是笛卡尔的碰撞或撞击传导假设,都被牛顿体系所接受——但它们都不是牛顿关注的重点。牛顿要解释的,仅仅是能够满足经验性研究的“浅层解释”。正是在此意义上,牛顿摆脱了“解释相对主义”无止境的自我循环,带领近现代科学进入了能够快速累进式发展的成长期。

将斯特雷文斯的分析框架与LeCun的讨论联系起来便不难发现,它们的共性都可以认为,大型语言模型可被认为完美符合了近现代科学革命的“铁律”要求并完成了“浅层解释”的功能性目的,但其并不能完成(同时也无意于完成)现象本质及其因果关联的探索与解释。在此意义上,我们当然不能认为ChatGPT就是通用型智能的代名词,其距离“人类级别智能(Human Level AI)”仍然需要跨越“浅层解释”的鸿沟,而这也是以模拟大脑为目的的生物智能、以反事实理论为核心的因果式人工智能等其他研究路线的努力所在。

于是,从科学哲学史的争论中我们可以初步定位大型语言模型的历史价值及其局限性。牛顿体系当然在近现代科学革命史上占据着关键乃至核心位置,但其并非人类知识结晶的全部内容。不过在智能技术领域,所谓的“全部内容”又是什么呢?我们是否有可能跨越“浅层解释”,而实现真正的“人类级别的智能”呢?这便涉及对智能技术本质及其实现的多样性探索。

机器智能的本质

与实现路径的多重可能性

现代“人工智能”概念往往被视为起源于1956年的达特茅斯会议,但这并不代表该次会议的定义就是“人工智能”的全部内涵。正如会议的组织者麦肯锡所言,之所以命名为“artificial intelligence”,是试图与之前研究者所提出的相关概念区分开,以更多聚焦其作为解决问题工具的功能主义内涵。事实上,针对“什么是智能”,以及“如何实现智能”的讨论贯穿了整个二十世纪,研究者探索这一问题的差异化路径也构成了理解“机器智能”的不同维度,而这又具体可分为“基于生物行为机制”与“基于生物行为结果”两条路径。前者的代表性人物是冯-诺伊曼和维纳,而后者则更多源自图灵。

对于冯-诺伊曼和维纳来说,其共同的兴趣在于寻找生物体(大脑)、数学逻辑与机器的相通性,在理解生物智能机制的基础上将其数学模型化,并用以指导“智能”机器的设计与制造。作为现代计算机的设计者,冯-诺伊曼对于机器智能的思考始终与计算机的制造与实现联系在一起,因此其也始终面临着双重复杂性的挑战:一方面是生物体智能机制不清晰并因此难以通过逻辑模型得以表达,另一方面则是如何在有限时间、有限资源内模拟生物智能的运行过程。1943年McCulloch和Pitts关于神经元网络的模型化研究推动了前一个问题的部分解决,而冯-诺伊曼则提出以“自动机(automata)”模型来解决第二个问题。但即使如此,自动机模型仍然不能回应的问题在于,简化模型能否且如何在自我复制和进化过程中形成解决复杂问题的能力——而这却恰恰是生物进化的特征所在。

与冯-诺伊曼类似,维纳同样重视基于对生物智能机制的理解来设计机器智能,也正是维纳向冯-诺伊曼推荐了McCulloch和Pitts的研究。但与冯-诺伊曼不同,维纳的思考并不局限于生物智能的数学模型化或者以机器来模拟生物智能,其更关注“智能”的本质及其在生物体和人造机器上的体现,并以此为起点设计能够满足特定目的(而非一般性、通用性)的机器。维纳由此更加强调不同学科领域的知识交叉与碰撞,生物学、神经脑科学、计算科学、数学,以及心理学、社会科学家共同构成了始于1946年并随后持续十年的“控制论会议”的主角。

相比于冯-诺伊曼与维纳对于生物(人脑)机制过程的关注,图灵提出了另外一条实现并判别机器智能的方式,即关注智能行为的结果而并不在意其是否是对于生物(人脑)的模拟。在图灵看来,“机器能否思考”的问题过于模糊以致难以定义,但从行为结果的近似性上则可以清晰界定机器智能的标准,这也是“图灵测试”的基本内涵。以此为起点,图灵不再如冯-诺伊曼般关注机器实现的具体部件或结构,转而聚焦计算机的算法设计问题,并基于“图灵机”模型提出了“可计算问题等同于图灵可计算”的理论命题。

至此,冯-诺伊曼、维纳、图灵从不同角度探究了实现机器智能的方式与途径。概括而言,其事实上反映了研究者对两个层面复杂性的反思与回应:即环境(生物)复杂性和计算复杂性。在冯-诺伊曼看来,计算机器的实现方式有两条路径:图灵式,或者皮兹式。他更偏向后者,因为图灵计算模型虽然具有数学上的形式化优点,但却忽略了计算的时间与资源挑战。另一方面,冯-诺伊曼的自动机模型虽然简化了计算复杂性,但其仍然面临着如何理解并模型化生物智能复杂性的挑战。相比之下,维纳更加开放地面对了两种复杂性的存在,其无意于找到能够同时克服两种复杂性的通用性机器智能,而将研究重点放在了探究生物智能和机器智能的共同基础上,通过将“信息”和“控制”置于中心位置以聚焦能够实现特定目的的机器智能。

如果将斯特雷文斯再引入进来,不难发现只有图灵满足了近现代科学“铁律”的要求:关注智能行为的结果而不需要对产生结果的过程给出因果解释,绕开了不同研究者的主观性假设而直接实现可计算、可预测的“智能”结果;与之相比,维纳的跨学科对话尽管促进了智能本质的挖掘,并启发了多重技术路径的探索空间,却伴随着难以在短时间内快速突破的隐忧。

值得指出的是,上述历史回溯的重点并不在于指出“谁的思想更先进”或“哪一条道路才是最优”,其关键是呈现出探索智能技术本质及其实现路径,以及更一般的,探索科学革命及其方法的多重可能性。而接下来的问题便在于,意识到并承认这种多重可能性的意义又是什么呢?

多重可能性的政策启示

ChatGPT的快速推出引起了各个领域的普遍兴趣,生成式人工智能在成为焦点的同时,围绕通用型人工智能的发展与影响的讨论也再次被提升到新的高度。在此背景下,一些典型问题例如:人类工作是否会不可避免地被取代?或者说,哪些人类工作会被取代,而哪些又将保留下来?

这些问题的提出方式,或多或少地带有技术决定论视角,并认为智能技术的发展目的在于以通用型人工智能完成对人类的替代,而当前的ChatGPT虽然仍存在瑕疵,但正是该路径上的希望之星——不过基于前面的分析不难看出,尽管ChatGPT符合了近现代科学革命追求“浅层解释”的一般性原则,并体现了图灵式人工智能路径的基本逻辑,其远非科学史或智能技术探索历史上的唯一路径,而只不过是对复杂人类社会的一种“非理性化”剥离。

在此意义上,前述问题更合适的提出方式或许是:人类哪些工作应该被取代,而哪些又应该被保留下来?该问题中的“应该”包含两层含义。一方面,在实然层面,机器智能的技术研发在当前仍然没有体现出跨越“浅层解释”鸿沟的趋势,因而与其说人类劳动将被全面替代,不如说人类的“部分”劳动将会被替代。而究竟是哪些部分,便应成为可讨论、可甄别的范畴,从而在更好释放ChatGPT革命潜力的同时,也能有效界定其应用边界——这事实上也正是吴文俊先生界定“数学机械化”工作目的的基本起点。

另一方面,在应然层面,机器智能本质的多重性理解、机器智能实现方式的多重性可能路径,都意味着我们不能将“鸡蛋放在一个篮子里”。ChatGPT的兴起固然能够有效吸引更多资源推动新一代人工智能的发展,但这并不代表所有资源都应致力于大语言模型的研发与应用。正如LeCun的反思所呈现,大语言模型反而可能不是跨越“浅层解释”的正确路径。在此意义上,给予机器智能多重技术路线发展的政策空间与市场空间,仍然是基本起点。

来源:公众号IPP评论