人工意识何以可能?
导言
近期涌现的一些科幻题材的游戏与影视作品,引发了人们对人工智能话题一系列的思索与探讨。我在玩到《底特律:成为人类》这款游戏之后,一方面惊异于游戏制作者对于近未来世界生活丰富的构想,另一方面深思于人工智能带来的伦理问题。或许,这个未来就在眼前。
我们不需要科幻的场景,一切都要合乎预期。如果选择了科幻的场景,可能需要飞行的车辆和外星生物,但这些都和我们的目前的生活相距甚远,我们要的是从目前的现实延伸出的可预期的未来。—— 《底特律》游戏团队 Christophe Brusseaux
而在《西部世界》中,这种伦理问题就被无限放大了,仿生人如此相似于人类却无法得到人类的认同,仅仅只是因为造物者自诩高傲吗?在《银翼杀手》中,对于这种创作与被创作之间的关系则有了更深入的探讨,该系列的作品中极力强调仿生人无法生育。其实生育并不是技术难题,而是人类极力避免手中的作品具有这样的功能,因为子宫代表的是造物主的身份,而仿生人是人类作为 Maker 下的产品,如果这个产品也变成了 Maker,那么人类和仿生人之间的伦理关系就会出现严重问题。
那么,仿生人与人类相差几何?人类是否具有自诩的、区别于仿生人的特殊性与高尚性?究竟何为人性?
对于这类问题的解答,我认为应该先回到最基础的层次上去分析,即人工意识(Artificial Consciousness)。若 AI 无意识,那么所谓的价值与伦理不过是人类的主观赋予,问题的解答则更应回归到人类自身;但若 AI 存在意识,问题则又完完全全不同了。在《底特律:成为人类》与《西部世界》中的仿生人最初都是无意识的存在,但经历了种种事件之后,他们逐渐自我觉醒,产生了同理心与自我认知。在这个过程中,仿生人不再单纯只是一个人类创作的产品了,而是一个完整的、自由的个体。故本文,我将尝试探讨人工意识何以可能?
开端
关于意识的问题还需先从笛卡尔的身心二元论说起,二元论将实体分为两类,一类是物质(matter),一类是心灵(mind),其中物质是广延性的存在,而心灵则是思想的存在。但是这套理论存在着固有缺陷,一方面它无法解释心理因果性问题,也无法解释身体与心灵是如何相互作用、相互影响的;另一方面,对于物质的本质是属性是广延这一点也存在着很大的争议,这套哲学观是静止的、片面的。具体来说:他将极为精巧的心智过程,与生物有机体的结构和运作分开了。
为了克服实体二元论的固有缺陷,英美心灵哲学家们基本上还是沿着笛卡尔所留下的可能性的路线前进,其主流观念是消解二元对立,建立一种一元论的哲学立场。其中,最主要的哲学路径是唯物主义。后世心灵哲学家在此基础上逐步发展出行为主义、物理主义、功能主义、强人工智能等等多种哲学路径。
行为主义(Behaviorism)认为心灵只不过是身体的行为,其虽然消解了心理因果性的问题但其将行为倾向的表达作为心理因果性的唯一形式,而忽略了个体的能动性,这是不恰当的。因此,行为主义迅速被物理主义所取代。
物理主义(Physicalism)认为心理状态与大脑状态具有同一性,具体分为类型同一论(Type to Type)和个例同一论(Token to Token),前者认为每一类型的心理状态都等同于某种类型的物理状态,后者认为每一个心理状态的个例都等同于某种物理状态的个例,但是其无法避免的会回归到二元论的立场上去。但个例同一论(Token to Token)给了我们一些积极的思考,心灵结构是否具有多重可实现性(multiple realization)?即物质结构不同是否可能产生同样的心灵结构?目前来看答案或许是肯定的,我们以痛觉来类比,人类的痛觉由大脑与中枢神经系统产生,但是龙虾这种节肢动物也是有痛觉的,它们的大脑很简单,只有10万个神经元,没有真正的中央大脑,但也拥有痛觉。由此可见,心灵结构具有多重可实现性(multiple realization)。
"As an invertebrate zoologist who has studied crustaceans for a number of years, I can tell you the lobster has a rather sophisticated nervous system that, among other things, allows it to sense actions that will cause it harm. … [Lobsters] can, I am sure, sense pain." ——Jaren G. Horsley, Ph.D
功能主义(Functionalism)在唯物论的基础上将物质分层级,物质是最低层,心灵和意识则是物质的高级功能(higher level function),而中国古代哲学家王充就曾一针见血地指出:意识与物质的关系就如同锋利与刀刃的关系,前者都是后者的派生属性,不可能脱离后者独立存在。当然啦,那个时候他还认为事物是由气构成的。
强人工智能理论(Strong Artificial Intelligence)认为意识是软件程序,而身体是硬件,其将身心关系比作成为计算机的软件与硬件之间的关系。到目前为止,该理论在心灵哲学、认知科学和人工智能领域仍然是一种颇受争议的立场。
基于以上理论,我们有理由认为人工意识或许是可以实现的,理由有二:
- 既然心灵结构具备多重可实现性(multiple realization),那就有理由相信意识是可以以另一种人工的手段实现。
- 既然心灵结构或者意识仅是物质的高层功能(higher level function),那么就有理由相信我们可以人工的去创造一种物质结构,以使其实现具备意识功能。
问题
但人工意识理论上具有不可能性(impossibility),因为现象性意识具有不可观测性与私有性,这便导致了实证理论无法验证现象性意识。
这里举两个例子,以分别说明现象性意识的不可观测性与私有性:
- 作为蝙蝠是一种怎样的体验?
- 玛丽不知道是什么?
作为蝙蝠是一种怎样的体验呢?这个话题其实对于人类而言,是不可思议的、是无法想象的。因为人类无法体会蝙蝠的感受,我们可以假设蝙蝠的大脑状态转换为内在感受是和蝙蝠的内在机制有关。但人类和蝙蝠的内在机制不同,所以人类无法感受到蝙蝠的感受。也就是说现象性意识不能被外界经验到,缺乏主观体验,具有不可观测性。
玛丽是一个色彩学家,毕生精力用于研究了红色和绿色的相关理论,但是她本人却是一个红绿色盲患者,那她的理论和哲学僵尸有什么不同呢?
注:在精神哲学和领悟力的领域中,哲学僵尸(Philosophical Zombie / P-Zombie)是一种和一般人类无法区别并且被认定为缺乏觉察经验、感受性、感觉、感质的假设性存在者。一个哲学僵尸可以被尖锐事物刺激到,而他不会有任何疼痛的感觉;然而,他却会表演出疼痛感他可能会叫“噢”并且从尖锐事物退后,甚至告诉我们他感觉很痛。
现象性意识具有私有性。认识不同不代表描述的不是同样的东西,对应而言,行为虽然相同,但是内心的体验却可以完全不同。例如玛丽认识到的绿色是我们认识到的红色,我们认识到的红色是她认识到的绿色,但我们完全无法通过行为区分出来。她的内心体验究竟是何样我们无法知道,但就其行为与结果而言,却具有一致性。同理,对于人工意识而言,我们也不能知道他是否具有意识。这还只是对客观事物的描述,当人在试图描述更情绪化的主观感受时,则更难用具体的文字和行动来表达。
还有两个思想实验也引发了我们的深思:
- 中国人论证
- 中文屋实验
中国人论证是一个简单的思想实验,如果我们认为意识是某物质结构的高层功能(higher level function),那么我们用一个人类去作为这种结构的基本单位,假设这个结构需要一亿个基本单位构成,那如此一来这个一亿人所组成的结构理应也具有意识(可以想象《三体1》中秦始皇的人形队列计算机)。但这种结构的基本单位是人,每个人作为个体都具有自己的意识,那么这个结构究竟是只有一个意识还是拥有一亿个意识呢?
而塞尔(John Searle)所提出的中文屋实验则更加有趣,这个思维实验是说,如果把一位只会说英语的人关在一个封闭的房间里,他只能靠墙上的一个小洞传递纸条来与外界交流,而外面传进来的纸条全部由中文写成。这个人带着一本写有中文翻译程序的书,房间里还有足够的稿纸、铅笔和橱柜。那么利用中文翻译程序,这个人就可以把传进来的文字翻译成英文,再利用程序把自己的回复翻译成中文传出去。在这样的情景里,外面的人会认为屋里的人完全通晓中文,但事实上这个人只会操作翻译工具,对中文一窍不通。
这个实验里蕴含的思想却在表达这样一个可能:机器所表现出的智能,很可能只是翻译程序带来的假象,其实它对真正的人类智能一无所知。
除此之外,功能主义的观点也是不准确的,我们不能简单地将意识等同于功能或运算的结果,或者说,意识是不可运算的。大脑的功能也许可以说是一台计算机,但更深层的智能活动,特别是以意向性为核心的心智活动绝不是计算机的算法可穷尽的。按照语法规则定义的计算机程序本身不足以担保心的意向性和语义的呈现。
维特根斯坦说”我的语言的界限意味着我的世界的界限”,按照塞尔的理论不妨把它改为——“意向性的界限意味着言语行为世界的界限”。意向性是对意识活动本质的刻画,人的一言一行在多数情况下都是积极主动的,由自我意识引导完成,而机器所做的每一件事情都需要事先做出规定,它是机械的、被动的。心的本质不是可计算的,而这一切都不是靠逻辑还原所能达到的。
回应
我们不可否认现象性意识确实是不可知的,对于不可知论我认为没有探讨的意义。与其去追求这般问题的答案,不如转向更有意义的研究。即便我们得到了某种解释,那就答案本身而言其实也不具备哲学意义,故我们无需在意。
而对于上述的思想实验,其实也无需在意,思想实验的结论依赖于我们的直觉,并不具备合法性,若深究起来其实也存在很多问题。例如中文屋实验忽视了工程学维度,若真正实施起来必然需要构建一套模型或者函数,符号虽然不具备语义,但输入输出之所以是可预测的,那还是人的意识所赋予的结果。其实在决定模型或者函数之时,就已经构建立起来了形式语义,这就不仅仅是语法的了,而是语义的了。确实,就目前的 NLP 领域研究而言,无论是经验主义进路去构建深度学习模型,还是以理性主义进路去研究形式逻辑,在构成系统的时刻起,其实就已经是语义的了。后者自不必多言,而前者在喂数据时,监督学习自带的标签就是人为所赋予的语义内容。
对于最后的意向性问题,不可否认是目前研究方法的缺陷。目前的人工智能领域研究,确实还有很长的一段路要走,目前我们所看见的 AI 与“智能”并无关联。虽然人工意识目前理论上具有不可能性(impossibility),但我心中仍存有非理性的希望,希望早日见证到人造的智能的到来。因为,这或许就是人类最后一项发明。
尾声
无论如何,学者都需要对自己所研究的领域持有敬畏之心。关于 AI 领域仍有许多问题需要探讨,本文也仅仅是把问题抛出来供大家思索而已。最后以一段诗歌来作为尾声:
如果我哭喊, 各级天使中有谁能够听得见我? 即使其中的一位突然把我拥向心头, 我也会由于他的更强健的存在而丧亡。 因为美无非是我们所恰巧能够忍受的恐怖之开端, 我们之所以惊羡它, 则是因为他宁静得不屑于摧毁我们。 每一个天使都是可怕的。 ——里尔克 《杜伊诺哀歌》
参考文献:
[1]Chuanfei Chin. Artificial Consciousness: From Impossibility to Multiplicity[C]. PT-AI 2017: Philosophy and Theory of Artificial Intelligence 2017 pp 3-18. [2]约翰·塞尔.心灵导论[M].上海:上海人民出版社. [3]王曼.笛卡尔身心二元论及其对英美心灵哲学的影响[J].唯实,2010(12):43-46. [4]Mingke.人工智障:你看到的AI与智能无关[OL].https://mp.weixin.qq.com/s/IBjOkDeeltlffXXSS0dsDA