人工智能会发展出意识吗?
今年年初ChatGPT的热潮席卷全球的时候,这一度还是许多人关心的问题(另一个问题则是AI会不会让自己失业)。不过这种恐惧和危机感,后来很快就被各种让人眼花缭乱的大模型产品取代了,绝大多数人在焦虑未来和关注眼前之间选择了后者。
不过59岁的Yoshua Bengio依然在关注这件事,就在当地时间本周二,包括他在内的一个19人团队刚刚发布了一篇长达88页的重磅论文,来论证现在的AI有无可能拥有意识。
(资料图片仅供参考)
Bengio曾在2018年因深度学习的相关研究获得图灵奖,被认为是人工智能领域先驱式的人物;论文的其余作者也都是来自人工智能、神经科学和哲学领域的教授和专家。
先看结论:这篇论文认为,目前并不存在拥有意识的AI,但是以现有的技术条件,创造出有意识的AI基本不成问题。
光是一句话就足够让人汗毛竖立。这就好像,昨天我们还在说能在虚拟小镇里相安无事像人一样过生活的AI智能体,明天这群AI智能体就开始想着小镇外面有什么、真正的人类世界是什么样之类的事了……
是福还是祸,我们不如先来看看这篇论文的研究方法。
首先必须指出的是,关于什么是“意识”,虽然每个人都能大概讲出一些自己的理解,但在学界,意识的概念长达几个世纪以来都存在不同的定义。哲学家、神学家、语言学家和科学家对这个概念进行了数千年的分析、界定、诠释和辩论,但意识的本质仍然统一的认可、留有争议。
人工智能领域对于人工意识的理解也经历了漫长的演进。
20世纪以来,以艾伦·图灵为代表的行为主义者曾贡献了这一领域最具影响力的对意识的定义,也就是著名的“图灵测试”——如果一个测试者对无法确认身份的两个对象(一人、一机器)提出相同的一系列问题,得到的答案让他无法区分究竟谁是机器,谁是人,那么则认定机器通过图灵测试,拥有意识。
行为主义的特点是,将意识解释为一系列能被外部观察到的行为,以行为来定义意识。但这种方法也被诟病忽略了心理现象,无法解释智力。
功能主义后来取代行为主义,成为新的定义人工意识的主导思想理论。和行为主义相比,功能主义更关注大脑做了什么以及大脑功能在哪里起作用——如果有任何东西可以模仿特定的心理状态与计算过程的因果作用,意识就是可以实现的。
功能主义也对事物如何工作、到底是由怎样的材质组成等等外化体现不感兴趣,就好比将任何能报时的东西都归为时钟一样,而时钟是什么 制成的并不重要,只要它能报时就行了。
尽管功能主义也被认为存在无法体现事物的思考性等问题,但它依然是现在人工智能领域较为主流的衡量AI是否存在意识的依据。
后来美国哲学家、计算机科学家Hilary Putnam又将功能主义与计算概念结合,提出了计算功能主义。简而言之,计算功能主义认为,精神世界是基于一个使用诸如信息、计算(思考)、记忆(存储)和反馈等概念的物理系统(即计算机)。
而Bengio等人此次发布的论文,对AI有无意识基础的判断依据正是计算功能主义。
基础原则确定之后,接下来就进入到了更细致的“打分”环节。因为此前,学界对意识的研究已经有了一些公认的结果,比如科学家和哲学家对意识必要条件的主张等等,论文作者在研究中做的事情就是,从过往对意识研究的成果中选取一部分科学理论,作为判断AI是否具有意识的更具体的评估依据和指标。
论文主要介绍了其中用到的循环加工理论(Recurrent Processing Theory,RPT),全局工作空间理论(Global Workspace Theory,GWT)和计算高阶理论(Computational Higher-Order Theories,HOT)三种科学理论。
以循环加工理论(RPT)为例,研究者将这一理论具体拆分成了RPT-1和RPT-2两个指标:RPT-1指“使用算法循环的输入模块”,RPT-2指“生成有组织、整合的感知表示的输入模块”。
在衡量一个AI有无意识时,要做的就是将其性能和这些指标进行对照。
以下是论文中详细列出的其他科学理论指标:
当然这一步并不是真的去给一个AI打分,而是要看这个AI能够同时满足以上多少指标。研究者同时也指出,判断AI有无意识并没有绝对的答案:
为了方便起见,我们通常把意识写得好像是一个要么全有要么全无的问题。然而,我们对这种情况的可能性持开放态度:一个AI系统可能是部分有意识的,或者既不是完全有意识的,也不是完全无意识的。有许多属性具有“模糊”的边界,就像一件衬衫可能是介于黄色和绿色之间的一种颜色,这样就没有关于它是否是黄色的事实。
此外,论文中也提到此次研究使用了偏理论的研究方法。这其实也和计算功能主义的原则相对应,偏理论指的是去评估AI是否满足科学理论指标中的功能或架构条件,而不是去寻找他们某些具体的行为特征,“对于AI意识研究来说,一种重理论的方法是必要的,重理论的方法是专注于系统如何工作,而不是它们是否显示出可能被视为有意识存在特征的外在行为形式”。
以上便是这篇论文用到的研究方法。
论文的下半部分也提到了一些具体的研究案例,来体现判断特定的AI系统是否具有意识的研究过程,其中就包括了基于Transformer的大语言模型和Perceiver架构,还分析了DeepMind的Adaptive Agent(一个在3D虚拟环境中运行的强化学习智能体)和谷歌的PaLM-E(一个经过训练可以操纵机器人的多模态视觉语言模型)。
不过最终结果显示,这些AI系统并没有体现出非常明显的有意识的倾向。
研究者同时写道,“我们研究的证据表明,如果计算功能主义是正确的,有意识的AI系统实际上可以在近期内建立起来。”
论文发表后,英伟达首席AI科学家Jim Fan第一时间便转发了这一消息,并表示了他对研究团队的敬佩,
“ ‘意识’一直都是AI领域大家讳莫如深的话题。这篇由图灵奖得主Yoshua Bengio参与撰写的88页论文,是对意识科学理论以及当今人工智能堆栈中可能实现的系统调查,我赞扬他们有勇气去解决这个大多数研究人员都会回避的争议性话题。”
事实上,作为世界级的人工智能专家和深度学习先驱,Bengio近年来的研究课题许多都和人工智能的意识问题相关——
2017年,他曾在arXiv上发布过一篇题为《意识先验》(The Consciousness Prior)的文章;2019年的NeurIPS大会上,他又发表了《从System 1深度学习到System 2深度学习》的主题演讲,提出了一个在当时让人印象深刻的观点:深度学习正在从直观的、无意识的静态数据集学习,向具有意识、推理和逻辑的新型架构研究转变。
而在今年3月,Bengio也参与了那场轰轰烈烈的反对各家人工智能实验室搞AI“军备竞赛”、要求其暂停至少6个月比GPT-4更强大模型研发的运动,和其他超过千名的产业和学术大佬一起在公开信上签了名;两个月后,他又发表了一篇系统分析“危害人类的AI是如何出现的”的文章。
直到这次联合发表这篇长达88页的论文,Bengio一直都在不遗余力地做那个想要警醒大家AI的未来该向何处去的人。
就像这篇论文里写到的那句话,“这篇报告还远未对这些(AI有无意识的)话题给出最终定论。我们强烈建议支持对意识科学及其在AI中应用的进一步研究。我们也呼吁,社区应尽快将建立有意识的AI系统的道德和社会风险纳入考量(尽管这并不是这篇报告所强调的主题)。”
本文来自微信公众号:品玩 (ID:pinwancool),作者:李禾子