发布时间:2019-05-29
文章来源:《南国学术》2019年第2期
【摘要】人工智能的发展,对社会产生了巨大冲击,从而引发了人们对它的种种忧虑和反思。从哲学视角看,机器自身是否能拥有智能,是否具有人一样的思维,功能主义能否说明机器意识,生物自然主义能否驳倒功能主义理论,对意识和感受性的解释是否存在解释鸿沟,这些问题发人深思。哲学问题表明,机器拥有智能、能够思维意味着“机器中的幽灵”观点的复兴,这就回到了笛卡尔关于物质与心灵独立存在的二元论上,但“幽灵是如何进入机器的”问题,二元论无法说明。功能主义试图从中介因果性给出机器意识的一种功能说明,认为任何两个系统,只要它们具有同构的因果过程,它们就应该具有相同的心理状态。而生物自然主义则坚决反对这种观点,认为心理状态是高层次的涌现特征,它由低层次的神经元中的生理物理过程引起,机器不具有生物功能,当然不可能有意识,也就不可能有理解和思维。其实,机器是否有“智能”,与机器是否“理解”是不同层次的问题,这就看如何定义“智能”和如何去理解了。显然,这些问题的核心是意识问题,即能否用物理状态解释心理状态的问题,而意识问题目前仍是一个谜。在对这个问题的解释上,既有哲学上的混乱,也存在某些“解释鸿沟”。从伦理学视角看,人工智能的发展是否会对人类构成威胁,谁应该对此负责,智能型机器人是否应该有身份认同,它与人类有怎样的伦理关系,这些关于人工智能的安全和伦理问题,值得人们重视。智能型机器人的身份认同,即人形智能型机器人是否被承认是人类,不仅是个法律问题,更是伦理问题。如果机器人会对人类生存产生极大的威胁,禁止其发展就是必须的,人类的法律和道德都绝对不允许杀人。这就意味着,人类必须控制机器人的发展,毕竟智能机是人类自己创造的,产生的不良后果应该由人类自己来承担,人工智能对人类行为方式的影响也应该由人类自己来规范。
【关键词】人工智能 功能主义 生物自然主义 意识 智能型机器人
人工智能的快速发展,不仅引发了一系列哲学问题,也引发了一系列伦理学问题。对于这些问题的思考,学界不断有成果面世。从适应性角度看,人类应该能够与其创造的智能机共处共存,因为创造它们是为了服务人类,而不是控制甚至毁灭人类。尽管如此,人工智能的发展后果仍然难以预料。人工智能产生后,有人声称,机器能够智能地行动,哲学界将这种观点称为“弱人工智能假设”;也有人断言,机器的行为实际上是拥有思维能力而不仅仅是模拟思维,哲学界将这种观点称为“强人工智能假设”。大多数人工智能研究者将“弱人工智能假设”视为理所当然,不太关心“强人工智能假设”;也就是说,只要他们设计的程序能够工作,就不关心机器是模拟智能还是真实智能。然而,机器人代替人类工作或思维将会产生什么样的后果?是否会有机器人控制人类的事情发生?这些都是人工智能可能引发的重大哲学、伦理学问题,需要作深层次考察和追问。
一 机器的智能是其自身具有的吗?
机器能够智能地行动,是目前机器人技术正在实现的目标。自1956年人工智能产生起,就有人断言,人类学习的每个方面,或智能的任何其他特性,都能够由机器精确地描述或模拟。这似乎表明,“弱人工智能假设”不仅是可能的,而且已经部分实现。然而,也有人认为,弱人工智能不可能,它只是人们狂热崇拜计算主义而产生的一种幽灵。
显然,人工智能可能与否,取决于如何定义它。若将人工智能定义为“对在给定构架上最佳主体程序的探索”,它就是可能的。即对于任何具有k比特程序储存器的数字构架,存在2k个主体程序;接下来是发现最好的程序,并列举和测验它们。而当k非常大时,在技术上则是不可行的。但是,哲学界关注的是理论的而不是实践的问题,他们对人的认知构架和机器的构架的对比更感兴趣。具体说,就是关心机器能否思维,而不关心机器行动的最大效用。
大多数人认为飞机作为机器能飞,但问题是,飞机能飞与机器能思维不是一回事。因为,“飞”是动力学问题,“思维”是认知科学问题,后者比前者要复杂得多。阿兰?图灵(A. Turing,1912—1954)认为,不要问机器能否思维,而是问它能否通过智能行为的测试。图灵这里说的是会思维的机器,而不是一般的机器;即能计算的机器就是智能机,大脑就类似于计算器。这就是著名的“计算器隐喻”。如果将思维定义为计算,那么机器无疑会思维,因为人也会计算,当然也会思维。但是,人的思维与计算器的“计算思维”在本质上是不同的,正如鸟会飞与飞机会飞在本质上的不同。
对于人来说,计算过程肯定是思维过程,但思维过程未必是计算过程,如情感思维、冥想等,尽管这里的计算可以被理解为广义的,包括数学运算、逻辑推理、语言操作、问题解决等。而对计算器来说,计算就是操作和执行人编写的程序,这个过程与情感过程完全不同,尽管情感也可以被量化、被计算,甚至审美、幸福感这些纯粹体验的东西也可以纳入计算范畴。问题来了:一方面,若计算等于思维,机器就是可思维的;若计算不完全等同于思维,机器就可能不会思维。这就需要对“计算”和“思维”概念进行精确定义,找出它们之间的内涵与外延。这是一个棘手的难题,学界一直在争论中。
作为计算器科学的开创者,图灵已预见到对智能机可能存在三种主要反驳:无能力论证,数学反驳,随意性论证。如何看待这些反驳?需要仔细分析和讨论。
1.无能力论证。这种论证的形式是“机器决不能做x”。这里的“x”,是许许多多具体的事例或情形或状态,包括和蔼的、机智的、美丽的、友好的;有主动性,有幽默感;能够辨别是非、犯错误、坠入爱河;享受草莓和冰淇淋;向经验学习;正确地使用词;是它自己思想的主体;有像人一样多的行为多样性,等等。在这些事例中,有些是相当简单的,如犯错误;有些则是人能做到而智能机做不到的,如坠入爱河,因为机器还没有感情。尽管目前的智能型机器人能够做许多连人都难以做到的事情,但它们的背后都有人类专家在操作,独立于人的智能机单独靠自己的能力还不能做出发现。也就是说,智能机在执行任务的过程中,还不能提供洞见,产生顿悟,并且理解,因为洞见、顿悟、理解是人类特有的,智能机目前还不具备这种能力。
2.数学反驳。哥德尔(K. F. G?del,1906—1978)和图灵的工作已经表明,某些数学问题,根据特殊形式系统,原则上是无解的。哥德尔的不完备定律就是这方面著名的例子:若任何形式公理系统“F”有足够能力做算术,则建构一个所谓的哥德尔语句“G(F)”是可能的。该语句具有如下两个属性:
(1)“G(F)”是一个“F”语句,但不能在“F”内被证明。
(2)如果“F”是不矛盾的,那么“G(F)”是真的。
这个定律说明,机器在心理上不如人,因为机器是形式系统,它受不完备定律的约束,不能建立自己的哥德尔语句的真值,而人则没有任何这样的限制。这种观点,引起了学界的长期争论。
首先,哥德尔的不完备定律仅适用于有足够能力做算术的形式系统,包括图灵的智能机。在是否具备心理性这一点上,机器与人不可同日而语,这种观点部分是基于计算器是图灵机的观念,但不完全正确。因为,图灵机是无限的,计算器则是有限的,而且任何计算器都能够用命题逻辑描述为一个巨系统,这不服从哥德尔不完备定律。
其次,一个主体不应该太无知以至于不能建立某些语句的真值,而其他主体能够。例如,“张三不能无矛盾地断言这个语句是真的”。如果张三断言了这个语句,那么他将使他自己陷入矛盾,所以,张三不能一致地断言该语句。这其实已经证明,存在这样一个语句,即张三不能无矛盾地断言语句的真假,而其他人和机器则能够。还有,一个人无论何等聪明,终其一生也不能计算出10100的数目之和是多少,而超级计算器能够在几秒钟搞定。但是,不能就此认为计算器比人聪明,也没有看到这作为基本限制会影响人的思维能力。人类在发明数学和计算器前就已经智能地行动几十万年了。这意味着,形式数学推理在指明什么是智能的方面很可能只是起次要作用的。
最后,也是最重要的,即使承认计算器在其所能够证明方面是有限的,也没有任何证据表明人不受那些限制的影响。严格讲,人们很容易证明一个形式系统不能做“x”,如没有情感、心理活动,但声称人能够使用自己的非形式方法做“x”却没有给出这种观点的任何证据,这难道是合理的吗?的确,证明人这种生物系统不受哥德尔不完备定律支配是不大可能的事情,因为任何一个严格的证明都要有非形式的人的参与才能形式化,并因此驳倒它本身。于是,人们就给直觉留下了余地,认为人能够以某种方式执行数学洞察力的非凡技巧。在做推理时,人们必须假设一致性或无矛盾性的存在。更可能的情形是,人本身就是一个矛盾体。这一点,对于日常推理是如此,对于缜密的数学推理也是如此,著名的“四色地图问题”的证明就充分说明了这一点。
3.随意性论证。这是图灵提出关于人工智能最有影响和后人持续最久的批评,即关于人行为的随意性论证。其含义是,人的行为太过复杂,以致不能通过一组简单的规则来理解;计算器所做的无非是遵循一组规则,不能产生像人这样的智能行为。以一组逻辑规则无能力地理解每件事,在人工智能中被称为“资格问题”。德雷福斯(H. L. Dreyfus,1929—2017)是“资格问题”的主要支持者,他在《计算器不能做什么》《计算器仍然不能做什么》中,对人工智能遵循一组规则产生智能的观点提出一系列批评,其立场被豪格兰德(J. Haugeland,1945—2010)称为“好的老式人工智能”(GOFAI)。这一立场主张,所有智能行为能够通过一个逻辑地从一组事实和描述这个域的规则进行推理的系统中得到理解。德雷福斯正确地指出,逻辑主体对于资格问题是脆弱的,而概率推理系统更适合于开放的域。
不过,应该看到,德雷福斯反对的不是计算器本身,而是编辑计算器程序的方法。根据德雷福斯的观点,人类的专门知识的确包括某些规则的知识,但只是作为在其中人操作的一个整体语境或背景。例如下棋,棋手首先必须掌握关于下棋规则的知识,这些知识作为语境在下棋过程中起作用。新手完全依赖规则,需要计划做什么,而大师看一下棋盘就能够迅速知道如何做,正确的步骤已在头脑中。这就是说,大师无需刻意考虑规则就能迅速做出决定,其思维过程不依赖有意识的心智的内省。但是,这不意味着思想过程不存在,只是在大师那里,思维过程已经融入到熟练的技能中。
德雷福斯提出了获得技能的五个步骤,以基于规则的处理开始,以迅速选择正确答案的能力结束。为此,他还提出一个神经网构架组成一个巨大的案例库,但指出四个问题:(1)源于案例的好的概括没有背景知识是不能获得的。没有人知道如何将背景知识归并入神经网的学习过程。(2)神经网的学习是一种监管学习形式,需要相关的输入和输出的优先识别。因此,没有人类训练者的帮助它不能自动操作。事实上,没有教师的学习能够通过无监管学习和强化学习来完成。(3)学习算法在许多特性上执行得并不好。如果我们挑选一个特性子集,就会有增加新特性的未知方式存在,这使得当下集应该证明不适当考虑习得的事实。事实上,新方法如“支持向量机”(Support Vector Machine)是能够非常好地处理大量特性集的。随着基于网络大数据的引入,许多应用领域如语言处理、计算器视觉能够处理数千万个特性。(4)大脑能够引导其感官寻求相关信息,能够加工信息以提取与当下情境相关的属性。但是,德雷福斯主张,这种机制的详细过程目前还不能被理解,甚至包括能够指导人工智能研究的假设方式。实际上,由信息价值理论支持的自动视觉领域,已经关注方向传感器问题,而且某些机器人已经吸收了所获得的理论结果。
总之,德雷福斯关注的许多问题,包括背景常识知识、逻辑推理问题、不确定性、学习、决策的合成形式等,的确构成人工智能的主要问题,现在已经归入标准智能主体设计领域。这是人工智能进步的证据,不是其不可能性的障碍。
4.情境主体论证。德雷福斯最强的论证是针对情境主体的,而不是针对无身的逻辑推理引擎的。一个主体,支持其理解“狗”的知识库,仅源于逻辑语句的一个有限集,如狗(x)→哺乳动物(x),与一个观看狗赛跑、同狗一起玩的主体来说,这个主体处于劣势。正如安迪?克拉克(Andy Clark)指出的,生物大脑的首要功能是作为生物身体的控制系统,生物身体在丰富多彩的真实世界环境中运动、行动。为了理解人类或动物主体如何工作,人们必须考虑整个主体,而不仅仅是主体程序。事实上,具身认知方法不独立地考虑大脑,而是将它与身体看作一个不可分割的整体。也就是说,认知发生在身体包括大脑内,而身体是嵌入于环境中的。这样,认知就是环境中的认知,即情境认知。可以预计,机器人的传感器技术的发展,一定依赖于具身认知纲领和情境认知纲领。
二 机器具有人一样的思维吗?
机器能够像人一样思维是“强人工智能”的假设。许多哲学家认为,机器即使通过了图灵测试,也不能说它能像人那样思维,而只能算作是一种思维模拟。图灵已经预见到这种观点,称其为意识论证——即只有机器不仅能写出乐曲,而且知道它写出了乐曲时,才能承认机器就是大脑;或者说,机器必须意识到它自己的心理状态和行动。说人有意识,几乎没有异议;说机器有意识,则会引起极大争论。意识是认知科学、认知心理学的一个重要议题,它与研究直接经验的现象学相关,即机器必须实际上能够感知情感。在现象学中,判断某物是否有意识的一个标准是所谓的意向性。根据这个标准,对于机器来说,由于它能够是实际地关于真实世界中的某物的,所以,它可能有信念、愿望和其他表征。这种观点,引起了争论。
图灵对反驳机器有意向性观点的回应是机智的。并给出了这样的理由——机器可能有意识,或者有现象学特性或具有意图,问机器能否思维则是一个不清晰的问题,因为人们对机器的要求高于对人类的要求,毕竟在日常生活中,没有直接的证据表明我们了解他人的内在心理状态。这是心灵哲学中的他心问题。与其继续纠结这个问题,不如关注每个人思维的惯例。当时,人们还只是设想人与机器在未来对话的可能性;而如今,人机对话已经是寻常之事,真实思维与人工思维之间已没有语言之间的区别,就像人造尿素与有机尿素之间不存在物理、化学性质之间的区别一样。
如果说无机物与有机物之间的界限已经被打破,那么,机器思维与人类思维之间的界限是否也会被打破呢?这毕竟不是同一层次的问题,前者是物理层次的,后者是精神层次的。对于思维,目前还没有达到从无机物合成有机物的程度,所以多数人还是宁愿相信,人工机器思维无论多么引人注目,也不会是真实的(人的思维),至多是模拟的(似人思维)。正如塞尔(John R. Searle)所质疑的:“没有人假设,一场暴风雨的计算器模拟会让我们淋湿……究竟为什么人在其正常心智中会假设心理过程的计算器模拟实际上具有心理过程?”塞尔的质疑有一定道理,既然计算器模拟不会产生实际效果,人们也不能指望计算器模拟心理过程能够产生实际心理状态。然而问题是,这种模拟适当吗?虽然计算器模拟暴风雨不会让人淋湿,但人们并不清楚如何将这个模拟运用到心理过程。它虽然与用洒水器模拟下雨会使人淋湿不同,但暴风雨的计算器模拟的确能仿真湿的特征。如同模拟驾驶不等于真实驾驶,但能让模拟者体验到是在驾驶真实的车。大多数人会同意,在计算器上模拟下棋,与在真实场景下棋没有什么不同,因为这是在执行下棋的行动,而不是在模拟。心理过程更像是模拟暴风雨,还是更像下棋?
其实,图灵的思维惯例给出了可能的答案。在他看来,一旦机器达到某种老练的程度,这个问题本身通常会自动消失。这也会消解“弱”与“强”人工智能之间的差别。不少人对此持反对意见,认为存在一个不可否认的实际问题——人有真实心智,机器没有。要阐明这个实际问题,需要弄清人如何有真实心智,而不仅仅是身体产生神经生理过程。
哲学上解决这个心身问题,与机器是否有真实心智问题直接相关。心身问题是一个既老又新的问题。笛卡尔(R. Descartes,1596—1650)的二元论将心与身截然分开,认为二者独立存在,尽管它们之间存在相互作用,但随后产生的问题是,心是如何控制身体的?而心的一元论,也称物理主义,通过断言心与身不是分离的,心理状态就是物理状态,避免了这个问题。大多数现代心灵哲学家都是不同形式的物理主义者,他们原则上承认强人工智能的可能性。但物理主义者面临的问题是,解释物理状态(特别是大脑的分子构架和电化学过程)如何能够同时是心理状态呢?比如,疼痛、享用美食、知道某人在开车、相信北京是中国的首都等。
著名的“瓮中之脑”(brain in a vat)思想实验就是为反驳物理主义而提出的。物理主义者试图说明,一个人或机器处于一个特殊心理状态是什么意思。意向状态,如相信、知道、愿望、害怕等,是他们特别关注的,这些状态指向外在世界的某些方面。例如,我吃烧饼的知识是一个关于烧饼和在其上发生了什么的信念。若物理主义是对的,情形一定是,一个人的心理状态的适当描述,由那个人的大脑状态来决定。如果我正集中精力以经意的方式吃烧饼,那么我此刻的大脑状态是“知道某人吃烧饼”这类心理状态的一个实例。当然,我的大脑中所有原子的具体构架对于“我知道我吃烧饼”的心理状态是不必要的。也就是说,我的脑或其他人的脑有许多构架,它们属于同一类心理状态。关键点是,同一脑状态不对应于一个基本明确的心理状态,如某人正吃苹果的知识。
物理主义的观点,的确具有科学理论的简单性特征,但这种简单性受到“瓮中之脑”思想实验的挑战。设想一下,你的脑从你出生就与你的身体分离,并被置于一个神奇设计的瓮中,这个特殊的瓮能很好地保存你的脑,允许它生长、发育。同时,电信号从一个完全虚幻世界的计算器模拟输入你的脑,来自你的脑的移动信号被拦截,并被用于修正模拟直到适当。事实上,你经历的模拟生活精确复制你可能已度过的生活,如果你的脑不是被置于瓮中的话,包括模拟吃虚拟的烧饼。这样,你可能已经用于一个脑状态,该状态与真正吃真烧饼的人的脑状态同一,但是,说你拥有心理状态“知道你吃烧饼”表面上可能是假的。然而,事实是,你没有吃烧饼,你从来没有品尝过烧饼,当然你不可能有这样的心理状态。
这个实验,似乎与脑状态决定心理状态的观点相矛盾。解决这个问题的路径是,心理状态的内容能够从两种不同的视角来解释:宽内容与窄内容。宽内容是从一个通达整个情境的全能的外部观察者的视角给出解释,这个观察者能够区分这个世界中的不同事物。按照这种观点,心理状态的内容既包括脑状态也包括环境的历史。窄内容只考虑脑状态。例如,一个真实吃烧饼的人与一个瓮中之脑吃烧饼者的脑状态的窄内容,在这种情形中是相同的。
如果你的目标是把心理状态归于共享你的世界的其他人,以预测它们可能的行为和效果,那么宽内容就是完全适当的,因为它包括了心理状态所涉及的语境因素,如环境的历史,这是我们关于心理状态的日常语言进化的必要环境。如果你关注的是人工智能系统是否真实地思维和真实地拥有心理状态的问题,那么窄内容就是适当的,因为机器是无语境的,即与环境的历史无关。所以,不能简单地认为,人工智能系统能否像人那样真实地思维,依赖于外在的那个系统的条件。如果我们考虑设计人工智能系统并理解其操作,那么窄内容也是与此相关的,因为正是大脑状态的窄内容,才决定下一个脑状态的内容是什么。这自然产生了这样一些问题——对于脑状态什么是要紧的?什么使得它拥有一个心理状态而其他没有?在这个所涉及的实体的心理操作范围内,功能角色起到何种重要作用?这些是功能主义的替代方案试图说明的问题。
三 功能主义的“脑替代”实验能说明机器产生意识吗?
在机器是否有心理状态的问题上,功能主义认为,心理状态是输入与输出之间的任何一个中介因果条件。根据功能主义,任何两个系统,若它们具有同构的因果过程,则具有相同的心理状态。因此,一个计算器程序能够拥有与人相同的心理状态。这里的同构,是指两个不同系统在结构和属性方面的一一对应,在数学上是映射关系。这个假设无论正确与否,都表明存在某种水平的抽象,在这个抽象框架下的操作是无关紧要的。
功能主义的这种观点可由“脑替代”(brain replacement)思想实验得到清晰的说明。这个实验包含三个假设:(1)神经生理学发展到这样的程度——人脑中所有神经元的输入输出行为和连通性被完全理解;(2)人们能够建构微型电子装置,它能够模仿整个行为,能够顺利连接神经组织;(3)某些神奇的外科技术能够用相应的单子装置替代个体神经元,而不中断脑作为一个整体的操作。一句话,这个实验是由使用电子装置逐个替代人头脑中的所有神经元所构成。
在这里,需要关注的是在操作之后和操作期间“被试者”(subject)的外在行为和内在体验。根据实验的定义,如果这个操作不被执行的话,与所将要观察到的情况相比较,被试者的外在行为必须是保持不变的。虽然意识的在场或缺场不能被第三个当事人确定,实验主体至少应该能够记录他/她自己有意识经验中的任何变化。显然,对于接下来将发生什么会存在一个直接的直觉冲突。但是,功能主义者相信,他们的意识仍然会保持不变。
作为一个生物功能主义者,塞尔也相信他的意识会消失。在他看来,人们会失去对其外在行为的控制。他举了这样一个例子,当医生测试你的视力时,会在你面前举一个红色物体,然后问你看到了什么?你本来想说你没看见任何东西,但你完全不受控制说出你看见一个红色物体。这意味着,你的有意识经验慢慢地消失,而你的外在可观察行为仍然保持不变。
这有两种情形需要注意:一方面,当被试者逐渐成为无意识时,要保持外在行为不变,被试者的意愿同时完全被取消;否则,意识的消失将会反映在外在行为中,如被试者会大叫或以言辞表达。如果将意愿的同时消失看作是某一时刻的神经元逐渐替代的结果,这似乎是一个不太可能的主张。另一方面,在没有真实的神经元保留期间,如果问被试者关于他的有意识经验的问题,那么会发生什么呢?假设一个正常人被尖棍子戳了一下,他会发出尖叫;若一个失去知觉的人被尖棍子戳了一下,他可能没有任何反应。机器就像一个没有知觉的人,被戳一下也没有反应,因为它没有神经元,尽管它可能被设计成有刺激—反应的程序做出应答。假如我们用电子脑替代正常人脑的功能属性,而且电子脑没有包含任何人工智能程序,那么我们必须拥有显示意识的一个解释,这种意识是仅由诉诸神经元功能属性的电子脑产生的。因此,这种解释也必须应用于具有相同功能属性的人脑。
这会导致三种可能的结论:(1)正常人脑中产生这类输出的意识的因果机制仍然能在电子装置中操作,它因此是有意识的。(2)正常人脑中的有意识心理事件与行为没有任何因果联系,并从电子脑中遗失,它因此不是有意识的。(3)这个实验是不可能发生的,因此关于它的推断是无意义的。尽管不排除第二种可能性,但它将意识还原到副现象的地位,即哲学上描述的某物发生了但没有留下影子,好像它存在于可观察的世界。进一步说,如果意识的确是副现象的,那么被试者在被戳痛后就不会有发出尖叫的情况发生,因为不存在有意识经验的痛。相反,人脑可能包含一个次要的、无意识的机制,该机制负责在受到刺激后会发出尖叫声。
总之,功能主义主张,在神经元水平上操作,意味着也能够在任何更大功能单元如一组神经元、一个心理模块、一片脑叶、半脑或整个脑水平上操作。这意味着,如果接受脑替代实验说明替代脑是有意识的观点,那么也应该相信,当整个脑被电子装置替代后意识被保持下来了,而且这个电子装置通过一个查找表从输入到输出的地图不断升级其状态。如果功能主义是对的,这会使大多数人包括弱人工智能者感到不安,因为查找表不是有意识的,至少在查找表期间产生的有意识经验,与在操作一个可能被描述为存取和产生信念、反省、目标等的系统期间产生的有意识经验是不同的。因此,脑替代实验并不能充分说明机器能够产生意识。
四 生物自然主义驳倒了功能主义吗?
20世纪80年代,塞尔的生物自然主义开始流行,它对功能主义提出了强烈挑战。根据生物自然主义,心理状态是高层次的涌现特征,它由低层次的神经元中的生理物理过程引起。神经元的这种未指明的属性才是重要的。因此,说心理状态被复制,仅仅是在部分具有相同输入输出行为的某些功能结构程序基础上,而且会要求这个程序在执行一个与神经一样有因果力的认知构架。为了支持这种观点,塞尔描述了一个假设系统,这就是著名的“中文屋”。
这个假设的中文屋系统由一个不懂中文只懂英文的人、一本英文写的规则书(《英汉对照词典》)和一堆纸条(有些是空白,有些写有不认识的符号)构成。中文屋有一个通向外面的窗口,负责收取纸条。屋中的人相当于计算器的中央处理器(CPU),规则书相当于程序,纸条相当于储存器,窗口相当于输入输出装置。屋中的人能够将通过窗口传入写有中文符号的纸条,按照规则书的匹配指令(形式规则)将其编译成中文语句,并将写有中文的纸条传递出去。指令可能包括在新纸条上写符号,在纸堆中发现符号,重新安排纸堆等。这个中文屋系统输入中文纸条并产生中文回答,看上去与图灵设想的系统一样有智能。目前的翻译程序如百度翻译、谷歌翻译等,就相当于中文屋系统。
对此,塞尔认为,中文屋中的人,比如我塞尔本人,完全不懂中文,规则书和一堆纸条不过是一张张纸条,根本不理解中文。这个系统根本不存在对中文的理解,即执行一个正确的程序,不必然产生理解。塞尔假设“中文屋”系统要说明的是,执行一个适当的程序尽管也产生正确的结果,但对于成为一个心智是不充分的。
然而,机器是否有“智能”,与机器是否“理解”,实际上是不同层次的问题。按照计算主义的定义,若一个系统能够计算,它就应该有智能,因为计算就是思维,思维当然是智能行为。但如果将智能定义为包括“理解”在内,则机器系统就难以有智能,因为任何程序无论是形式的还是非形式的,机器系统只能执行程序并不理解程序本身,甚至人有时也只是使用某种语言,不一定理解其意义,如同儿童背诵唐诗,成年人使用0(零)。因此,这就看如何定义、理解“智能”概念了。有智能与有意识、有心灵、能理解,还不是一回事,虽然它们之间有关联。
严格讲,塞尔所反对的不是弱人工智能的观点,而是强人工智能论断——恰当程序设计的机器具有认知状态,程序本身就是对人的认知过程的理解。塞尔在《心灵、大脑与程序》一文中,通过设想一个中文屋,从系统应答、机器人应答、脑模拟者应答、联合应答、他人心灵应答、多重套间应答六个方面系统而详细地反驳这种论断,客观上说,还是非常有力的。然而,将人在中文屋中理解中文,模拟为“CUP”能够开立方运算,是否合适?这是许多强人工智能支持者质疑塞尔反驳的一个普遍问题,也是人工智能专家对哲学界的挑战。
在中文屋与“CPU”两种情形中,对于“理解”而言,都是否定的。因为,人不理解中文,“CPU”也不理解。若问中文屋是否理解中文,按照强人工智能,回答可能是肯定的。塞尔的应答,实际上重申了这样的观点——在人脑中不理解的,在纸中也不能理解,所以不能存在任何理解。塞尔似乎是在说,整体的属性必须存在于部分属性中,这显然不合适。比如,水是湿的,但其组成的成分H2O都不是湿的。
塞尔的主张基于四个公理:(1)计算器程序是形式的(句法的);(2)人类心智基于心理内容(语义的);(3)句法本身对于语义学既不是必要的也不是充分的;(4)生物脑产生心智。塞尔从前三个得出结论,程序对于心智是不充分的,即一个执行程序的主体可能是一个心智,但仅根据执行程序并不必然是一个心智。从最后一个公理得出,能够产生心智的任何其他系统可能会拥有等同于脑的因果力的因果力。由此,塞尔推知,任何人工脑将会拥有复制脑的因果力,不仅仅运行一个特殊的程序,但人脑不会仅根据运行一个程序就产生心理现象。一句话,意识或心灵是生物现象,计算程序是不能产生这种现象的。
但是,这些公理是有争议的。例如,公理(1)(2)依赖于一个句法与语义学之间的未详细说明的区分,这种区分似乎与宽内容、窄内容之间的区分密切相关。一方面,人们可以将计算器看作操作句法符号;另一方面,也可以将计算器看作操作电流,这恰好与大脑运作的情形(生物电流)相似。所以,人们会说脑就是句法的。但是,程序对于心智是不充分的这个结论并不令人满意。塞尔所主张的是,如果你明确地否认功能主义,即公理(3)表明的,那么你就不会必然得出没有脑是具有心智的。这样,中文屋论证可以归结为是否接受公理(3)。
丹尼特(Daniel C.Dennett)将中文屋论证称为“直觉泵”(intuition pump),即中文屋论证放大了人的先验直觉。他认为,塞尔的论证形式对哲学家来说是很熟悉的,即他构建了一种所谓的直觉泵,一种通过在基本思想实验上产生变异来激发一系列直觉的装置。“直觉泵”通常不是发现的引擎,而是一种说服者或教学工具,一种一旦你看到真相就能让人们以你的方式看待事物的方法。丹尼特反对用直觉泵来思考,认为它被许多人滥用。在这种情况下,塞尔几乎完全依赖于错误的结果,即由错误地提出的思想实验产生的有利直觉。因此,生物自然主义者坚信他们的立场,而功能主义者仅确信公理(3)是未经证明的,或者说,塞尔的论证是不足以令人信服的。然而,不可否认的是,中文屋论证不仅对人工智能产生了巨大挑战,也引发了广泛的争论,但很少改变持不同立场人们的观点。比如,博登就旗帜鲜明地反对塞尔的“中文屋”论证,认为他的论断是错误的。
审视这场争论可以发现,那些接受公理(3)进而接受塞尔论证的人,当决定什么实体是心智时,仅仅依赖他们的直觉而不是证据。中文屋论证表明,中文屋凭借执行一个程序的力量不是一个心智,但该论证没有说,如何凭借某些其他理由决定中文屋或计算器或机器人是不是一个心智。不过,塞尔承认人类这种生物机器有心智。按照塞尔的这种观点,人脑可能或不可能执行像人工智能程序的某些东西,但如果人脑能执行,那也不是它们是心智的理由。在塞尔看来,创造一个心智需要更多的东西,比如,相当于个体神经元的因果力的某些东西。但是,这些力是什么,仍然是待解之谜。
然而,需要注意的是,从生物进化的角度看,神经元进化出执行功能角色,即具有神经元的生物远在意识出现于自然界之前就学习和决定了。若这样的神经元由于与它们的功能能力无关的某些因果力而恰好产生了意识,那将是一件惊人的同时存在事件。毕竟,正是这种功能能力才支配了有机物的生存。而在中文屋的情形中,塞尔依赖直觉而非证据,即只看到屋,没有证据证明屋中到底有没有意识发生。我们也可以将大脑看作屋而做同样的论证,即只看到细胞的组合,盲目地根据生物化学或物理学规律操作,那里有心智吗?为什么一大块脑能产生心智而一大块肝脏不能?这仍然是一个巨大的秘密,是一种解释鸿沟。因此,仅仅依靠哲学的思考还不足以弄清心智的形成机制,这需要多学科的联合。
五 意识、感受性的解释存在解释鸿沟吗?
对于强人工智能的争论,其核心是意识问题。具体说,意识是否只是生物特性的,非生物的人工意识或机器意识是否可能实现?意识通常表现为不同方面,如感受性、理解、自我意识、自由意志等。这些方面都是哲学上一直在讨论的问题,至今仍在争论。而与意识问题紧密相关的是主体经验,即感受性,它是人们经验的内在性质。人们的某个感觉如疼痛是否有相应的脑状态?或者说,一个心理状态是否有相应的物理状态?这个问题对心智的功能主义说明构成了挑战,因为不同的感受性可能涉及别的同构因果过程是什么的问题。例如,“倒置光谱”(inverted spectrum)思想实验表明,当看见红色物体时某人“x”的主体经验,与当其他人看见绿色物体时的主体经验相同,相反也一样。“x”坚持红色是红的,在红色信号灯亮起时停,也同意红色信号灯的红色比夕阳的红色更强烈。然而,“x”的主体经验在两种情形中是不同的。红色信号灯是停的经验,夕阳是享受或感悟的经验。
感受性问题不仅是心灵哲学的一个重要问题,也是自然科学的一个重要问题,不仅对功能主义形成挑战,也对科学形成挑战。假设神经科学已经探明大脑的运作机制,比如发现一个神经元中的神经过程将一个分子转换为另一个,不同神经元之间的相互连接路径等等,这些发现也不足以让人们接受,拥有神经元的实体如同大脑有任何特殊的主体经验。在神经过程与意识形成之间可能存在某种鸿沟。这在哲学上被称为“解释鸿沟”(explanatory gap),它是心身问题中关于物理现象与心理现象之间的理解关系问题,具体说是能否用物理状态解释心理状态的问题。这种解释鸿沟,导致有人如查尔莫斯(David J. Chalmers)认为,人类无能力完全理解自己的意识;也有人如丹尼特通过否认感受性进而否认解释鸿沟的存在,认为这是由于哲学混乱造成的。但是,无论结论怎样,问题依然存在,争论仍在继续。
其实,如果感受性是意识经验,则主体经验与意识相关,没有主体意识也就没有主体经验。例如,一个丧失意识的植物人没有感觉,也就没有主体经验。如果感受性是非意识经验,那就有点神秘了,毕竟我们不能否认有意识的人有主体经验,主体经验就是感受性。之所以存在解释鸿沟,是由于还没有弄清生物的大脑是如何拥有意识的,更遑论机器脑是如何产生意识的。况且,意识与感受性之间的联系机制也还没有完全弄清,因此,形成所谓的解释鸿沟也就不难理解了。图灵也承认,意识与机器智能是不同的问题,但他否认意识问题与人工智能有太多的联系。也就是说,意识问题不妨碍机器智能问题。当今人工智能的长足发展充分说明,意识与智能不是一回事,有意识的存在一定有智能,如人类;但有智能的存在不一定有意识,如智能机。也许人工智能并不依赖于意识,而是依赖于能创造智能行为的程序。意识可能是一种不需要智能的更高级精神现象。
六 人工智能能否对社会伦理构成威胁?
不论智能与意识关系如何,也不论人工意识是否可能,一个显见的事实是,人工智能的迅速发展已经对人类社会产生了非同凡响的影响,这是自我认知领域的一场深刻变革,有人称之为“图灵革命”,也是继哥白尼革命、达尔文革命、神经科学革命后的“第四次革命”。这一次革命之所以与以往不同,在于它将人类看作一个信息体,在信息圈内与其他可逻辑化、自动化信息处理的信息智能体共享自然和人工领域内的成就,相互交织在一起。于是,人类越来越多地将记忆、认知活动甚至日常生活,委托给智能机如计算器、智能手机等来完成,智能机已然成为人类的“延展大脑”。如果没有手机,人们将无所适从;如果电信网络停摆,人们将无法完成购物支付。除认知、经济等领域外,人工智能特别是智能型机器人的发展是否会对人类的精神领域,特别是伦理观念和行为规范产生影响?这一点是肯定的,而且影响巨大。这可以从以下四方面来探讨。
一是智能型机器人的身份认同问题。这不仅是个法律问题,更是伦理问题。一个人形智能型机器人是否被承认是人类,即使法律上的障碍被消除,比如,2017年10月28日,沙特阿拉伯向机器人“索菲娅”授予国籍,宣布机器人索菲娅为其国家的公民,享有与其国民相同的权利。这就是承认机器人的合法人类身份的地位。然而,接下来更棘手的伦理层次的问题是——“索菲娅”与人类是什么关系?她能结婚吗?尽管“索菲娅”与人类外形高度相似,拥有仿生橡胶皮肤,可以模拟62种面部表情,能识别人类面部表情、理解人类语言、能够与人互动,甚至还会开玩笑,但她毕竟还是机器人,缺乏人类拥有的情感力和自然生育能力,更没有人类长期建立起来的伦理观念,因此,对机器人提出伦理要求本身就是不合理的,赋予机器人以所谓的合法身份也就是一场闹剧。
二是智能型机器人的安全性问题。如果机器人会对人类生存产生极大的威胁,如无人驾驶机器成为杀人武器,禁止其发展就是必须的,因为人类法律和道德都绝对不允许杀人。这就是人类如何控制机器人的问题。2018年3月9日,欧洲科学与新技术伦理组织发布《关于人工智能、机器人及“自主”系统的声明》称,人工智能、机器人技术和“自主”技术的进步已经引发了一系列复杂和亟待解决的伦理问题,呼吁为人工智能、机器人和“自主”系统的设计、生产、使用和治理制定国际公认的道德和法律框架。
三是人类道德责任问题。在这种由人工智能和机器人构成的复杂信息社会技术系统中,与道德相关的“智能主体”(agency)应该有怎样的位置?人类如何分担产生的道德责任,或者由谁为其中产生的不良后果负责?不可否认,智能机是人类自己创造并推广应用的,产生的不良后果应该由人类自己来承担。具体来说,谁生产谁负责;正如环境问题,谁污染谁治理。这不仅是一个涉及对人工智能的研发、设计、测试、生产、监管、认证的问题,也是一个包括政府、企业、个人在内民主决策、协调解决的问题,涉及制度、政策及价值观的决策,以确保人工智能技术不会给社会带来危害。例如,哈佛大学肯尼迪政府学院贝尔弗科学与国际事务中心与美国银行宣布成立“人工智能责任运用协会”,旨在解决未来人工智能快速发展中可能出现的问题。
四是人类的行为规范问题。人工智能发展不仅极大地改变了人类的生活方式,也改变了人类的行为方式。目前的互联网给人类带来了极大的便捷,网购、支付宝、外卖非常普及,机器人已代替人类的部分工作,人变得休闲了,但也无所事事了,宅男宅女普遍存在,几天甚至几周不下楼的大有人在。这又带来了社会问题:人与人之间面对面的交流、沟通没了,感情淡化了,冷漠成为常态,不仅导致了网瘾、安全问题,也产生了不良行为。比如,走路看手机导致的车祸,长期宅在家里造成的交流封闭,甚至产生自闭症。假如有一天智能型机器人真的普及了,人类应该如何与它们打交道?应该建立一种怎样的关系?人类面对机器人应该如何规范自己的行为?这是不久的将来人类会面临的社会和伦理问题。
概言之,对于人工智能,人类不仅要关注它如何发展,还要考虑它应该怎样发展。如果人工智能的发展对于人类是弊大于利,如果机器人将会控制人类并要毁灭人类,人工智能研究者就有责任终止这种研究,如同终止核武器的发展一样。这不可避免地给人工智能研究者提出了社会责任和社会伦理的要求。
编者注:此文是作者主持的中国国家社会科学基金重点项目“科学认知的适应性表征研究”(16AZX006)的阶段性成果,发表于《南国学术》2019年第2期第220—231页。
特别声明:本文转载仅仅是出于辅助教学和学习的需要,如其他媒体、网站或个人从本网站转载使用,自负版权等法律责任;作者如果不希望被转载,请与我们接洽。
学院订阅号
学院服务号
格致传媒