梅剑华:人工智能与因果推断——兼论奇点问题-亚博电竞网

梅剑华:人工智能与因果推断——兼论奇点问题

选择字号:   本文共阅读 746 次 更新时间:2021-11-06 21:12

进入专题: 人工智能     奇点  

梅剑华 (进入专栏)  


摘要:自“图灵测试”提出以来,关于机器能否真正具有人类智能的争论就一直没有间断。批评者多认为机器可以具有工具意义上的弱人工智能,但不具有主体意义上的强人工智能。以珀尔为代表的因果推断学派主张因果推断能力是机器具有强人工智能的关键。一旦机器获得因果推断能力实现强人工智能,机器就可能在后续发展中远远超过人类智能,并达到其发展之奇点。我们认为:如果能让机器人具备因果推断能力,那么强人工智能就是可以实现的,奇点的存在在逻辑上是可能的。但是可能性不等于实际性,要想在实际上获得这种高于人类的智能,人类还需要进一步整合传统生物智能和机器智能。

关键词:强人工智能  反事实  因果推断  奇点问题


一、“图灵测试”与强人工智能

要探讨人工智能问题,不可避免地要回溯到图灵(a.m.turing)及其所提出的“图灵测试”。1950年,图灵在哲学杂志《心灵》上发表了《计算机与智能》一文,该文成为了人工智能领域的开创性文献。在该文中,图灵提出了一个基本的测试标准,以检验计算机是否具有人工智能。图灵提出,我们可以设计一个模拟游戏,让不同的测试者轮流向某个人和一台计算机提出问题,这个人和计算机都借助打字机回答测试者提出的问题。如果在一段时间内,测试者无法识别两个回答者中哪一个是人哪一个是机器,计算机就可以算作通过了测试,具有了和人类一样的思考能力。这就是著名的“图灵测试”。(cf.turing)

“图灵测试”的反对者们则提出,通过了这种测试的机器并非具有真正的人类智能,因为人类智能具有其生物基础,拥有意识(自我意识、现象意识),具有承担责任的能力(伦理责任、法律责任),具有理解和感受世界的能力及实践能力等等,这些都是机器不能通过算法来完成的。人类的心灵不能通过算法模拟而获得。我们因而可在弱人工智能与强人工智能之间做出区分。弱人工智能建立在算法基础上,但算法本身不能建立强人工智能。诸如默会知识、现象意识、自由意志、责任、主体性等都不能从算法中产生出来,从算法到主体性之间有一道深深的鸿沟不可逾越。

不但如此,在从专家智能到通用智能的跨越过程中,传统研究也长期忽略了这样一个关键性因素。那就是机器人需要具有一种独特的能力:因果推断能力。因为专家系统对人类智能的模拟是针对某个特定的任务制定的算法程序,例如下棋、语音识别等等。而要达到通用智能,就需要机器能够根据周边的复杂环境进行反应作出推理。人类就是在复杂的环境中根据有限的数据进行推理。早期的专家推理系统取得了巨大成就,却不能像小孩一样进行常识判断和因果推断。它可以做出超越专家的事情,但无法做出小孩很容易做到的事情。小孩对外界环境的刺激进行回应,通过因果学习,建立因果推断模式。与计算机相比较,小孩获得的数据是少的,但解决的任务是复杂的。加州大学计算机视觉研究专家朱松纯将其总结为:人工智能不是大数据、小任务;而是小数据、大任务。环境中的智能体通过观察、操控甚至设想环境中的有限信息(小数据),建立信息和行为之间的因果关联,从而做出复杂的行为,完成大任务。(参见朱松纯)

与这一思考趋势相关联,2011年图灵奖得主、计算机科学家珀尔(j.pearl)及其同事提出,人的根本能力是因果推断能力,强人工智能就是让机器人具有因果推断能力。他们据此提出了一个因果版的“图灵测试”:我们需要测试机器能否回答人类可以回答的因果问题。(cf.pearl&mackenzie,pp.36-39)塞尔可能会认为,即使机器能够回答因果问题,仍然不理解因果关系。但珀尔则认为,机器要通过成功回答因果问题来欺骗对话者非常困难。如何让机器具备因果知识是对人工智能领域的一个巨大挑战,在《因果性》一书中珀尔提出了因果推断的形式化模型,推动了人工智能领域中的因果革命。(cf.pearl,2009)

如果说因果推断是人工智能的一次范式革命,那么这种范式革命会不会加速人工智能研究领域人们所普遍关心的奇点的到来呢?这也将是本文讨论所关心的另一个核心话题。人工智能学家用奇点表示人工智能远远超越人类智能的那一刻。古德提出:“第一台超智能机器将是人类最后一个发明。”(转引自库兹韦尔,第10页)从此之后,超能机器自身就会制造出比自己更具有智能的机器。跨越奇点就意味人工智能的终结。既然设计机器是一种智能活动,那么超智能机器就可以设计出更具智能的机器人。智力爆炸和速度爆炸相关。根据墨菲定律,计算机的速度是倍增的,加速会导致智能迅速达到临界点。因此可以预期“智力爆炸”的临界点可能会到来。

在人工智能问题上,是否承认人工智能拥有一个临界奇点,这将反映出不同的人对于人工智能理解的不同信念,不同态度,因此将原则性地决定人们对于人工智能发展的性质及未来之判定的立场差异。机器如果具备因果推断能力,这将使得机器人智能具有实质性提升,因此因果推断在判定奇点是否会到来的问题上将发挥实质性的作用。

二、因果推断、反事实推理与强人工智能

因果性在人类实践生活中具有头等重要的地位。因果是“联结人类意识与物理世界的通道桥梁,它们也是人类作为认知、道德等方面的能动的行为者(agent)的不可或缺的基础。”(蒉益民,第113页)人工智能关注的正是人们如何运用因果推断能力与世界打交道。

强人工智能应该是一个心灵(mind)而不是单纯的人类工具。给机器配备因果推断能力,是让机器成为心灵的关键一步。我们如何行为依赖于我们对于世界的认识,依赖于我们通过有限的观察所获得世界的图景。人类似乎有一种因果直觉,能够很快发现事物之间的关联。如果机器在不需要大量数据的情况之下,也能很快发现事物之间的关联,那么它在行动上的表现就和人非常类似。因此一方面,如果我们接受神经科学对大脑的研究,认为人的行动不是仅仅由“意志”发动的,而是和外部的因果事件有联系,我们对人类自由意志的理解就会弱化一些,这种自由至少有部分是可以客观可获得的。另一方面,如果我们对机器输入因果推理模式,它就会根据因果关联去行动,例如事件甲和乙之间具有因果联系,事件甲和丙之间具有相关性。机器选择了从甲到乙的路径而不是从甲到乙的路径,它就展示了像人一样的思维能力。机器在面对多个事件的时候,选择了具有因果相关的事件而不是仅仅相关的事件。这也进一步表明,它具有一定的自由选择能力。因果推断能力是强人工智能的重要的标准,这一论断将具有双向后果:一方面我们可以看到人的机械性,另一方面我们可以看到机器的主动性。传统哲学对于主体性、自由意志的理解是一种全有或全无的逻辑。某一个体要么具有要么不具有自由意志。但是从当代神经、认知科学的视角来看,我们可能要说主体性和自由意志应该是有程度之别的。某一个体具有更多一些的主体性,而另一个体具有较少一些的主体性,这样的说法是合法的。因此对于因果推断与强人工智能的关系,我们可以从理解和理论两个角度来说。从理解方面来说,放弃人类中心主义会让人们倾向于认同机器具有一定程度自由意志;从理论方面来说,建构一套因果推断的形式系统为机器具有一定程度的自由意志提供了基础。

强调因果推断,这是珀尔和其他主流人工智能研究的关键分界。早期的人工智能算法基于符号逻辑的演绎推理,1980年以来的人工智能算法则基于概率(贝叶斯网络)的归纳推理。而因果推理则是结合了演绎推理和归纳推理两个维度的算法。作为20世纪80年代兴起的贝叶斯网络推理的教父,从20世纪90年代起,珀尔放弃了概率推理,转而支持因果推断理论。在他看来,目前的机器学习、深度学习不能发展出真正的人工智能,其根本缺陷就是忽视了因果推断。当前的人工智能不过是爬树登月,要登月必须建造宇宙飞船而不是种大树,建造宇宙飞船就是为因果推断构造出一套数学模型。

规则性因果说和关于因果的反事实理论是因果推断理论中两种最主要的理论。规则性因果说源于休谟:“我们把原因定义为有另一个对象跟随的对象,那么所有和前一个对象相似的对象都有和后一个对象相似的对象跟随。”(休谟,第70页,译文有改动)刘易斯对休谟的规则性因果说做了形式化定义:令c表示命题c存在(或发生),e表示e存在(或发生)。c是e的原因当且仅当:(1)c和e为真。(2)自然律命题集l和特定的事实集合j联合蕴涵了c→e,尽管l和j并不联合蕴含e,j单独不蕴含c→e。(cf.lewis,p.556)

这里的问题在于,相关并不蕴含因果。事件a和事件b规则性相关,但二者之间并非因果关系。公鸡打鸣天就亮了,但公鸡打鸣并不因果地导致天亮;夏天来临,冰淇淋销量大增同时犯罪率也上升,但冰淇淋销量大增并不因果地导致犯罪率上升。刘易斯意识到了规则性因果说的局限,因而另辟蹊径提出了关于因果的反事实理论。(cf.lewis)

按照刘易斯的读解,休谟自己其实也已经提出了关于因果的反事实定义。在给出了因果的规则性定义之后休谟说:“或者换句话说,如果前一个对象没有存在,后一个对象永远也不会存在。”(休谟,第70页,译文有改动)这里已经给出了一个与因果的规则性定义截然不同的反事实定义:如果a,那么b;并且如果非a,那么非b。(cf.lewis)人类能够想象反事实状况,这是认知能力的一大提升,是从已知到未知的一跃。

不难发现,很多物理学定律都可以用反事实条件句来刻画。例如胡克定律:弹簧在发生弹性形变时,弹簧的弹力f和弹簧的伸长量(或压缩量)x成正比,即f=-k·x。它的反事实形式就是这样的:如果对弹簧施以双倍的力量,那么弹簧也相应伸长为双倍。

珀尔关于因果推断的模型受到了刘易斯反事实因果理论的启发。休谟的规则性因果说是一种归纳推理,人工智能早期基于逻辑的推理是一种演绎推理,20世纪80年代开始人工智能逐渐转向了基于概率的归纳推理。而刘易斯的反事实模型更接近于演绎推理。珀尔在因果推断领域把演绎推理和归纳推理相结合构造了因果的数学模型。反事实推理对于人类生存实践至关重要,因为人类不可能实际上穷尽所有的可能性,只能基于有限的数据去进行推断。规则因果建立在对实际发生事件彼此关联的归纳之上,反事实因果则是建立在非实际发生事件的关系上。反事实推理要比规则推理更抽象、更普遍也更符合人类实际推理情况。我们可以发现,规则推理是基于实际发生事物的推理,反事实推理则是一种基于不存在事物的推理。因此理解因果推断能力的关键,就是理解反事实思维方式。让机器具有因果推断能力,就是让机器具有反事实思维能力。

基于刘易斯的反事实推理思想,珀尔认为人类获得因果推断能力可分为三个渐进的层面。第一是观察层面,人类和动物都可以对周边环境的规律进行观测。第二是操作干预层面,通过预测后果作出相应的行为,例如早期人类使用工具。第三是想象反事实情形的层面,通过想象来获得对世界的理解。(cf.pearl&mackenzie,pp.23-51)

在观察层面上,我们观察到规则和相关性。我们可以提这样的问题:假如我处于某个特定场景,我会观察到什么?事件或变元之间如何关联?当我观察到新证据x,这如何改变我关于既有事件y的信念?例如我们可以问:什么样的症状可以让我判断某人得了肌肉萎缩症?什么样的统计数据可以告诉我某一次选举的结果?这种相关性由条件概率刻画p(y│x)=p,在我们观察到事件x=x的条件下,事件y=y的概率就是p。p(y│x)=p表达的是x和y的统计关系。当前在人工智能研究领域被人们广为关注的机器学习问题就是处在这样一个一层面上的问题。相关并不蕴含因果,这也就意味着机器学习并不蕴含强人工智能。目前为止深度学习的主要成就不过是依赖于曲线拟合,尚停留在事件相关性层面上。

在干预和操作层面上我们可以提出如下问题:如果我对某一过程进行干预会发生什么?如果我对x进行干预,y会如何?例如我们可以问:如果我吃了奥美拉唑,胃疼会缓解吗?如果我戒烟,身体会好转吗?这种干预由珀尔发明的do演算刻画。p(y│do(x),z)指我们对x固定为值x,并观察到事件z=z,事件y=y的概率。do演算是珀尔的发明,此处不赘。

在反事实和想象层面上我们可以提出如下问题:如果我这样行为,会有什么结果?是x因果导致了y吗?如果x没有发生,y会发生吗?例如我们可以问是阿斯匹林缓解了我的头疼吗?如果荆轲没有刺秦,荆轲会活下来吗?如果我喝酒了,身体会更好吗?p(yx│x‘,y’)是指我们实际上观察到的事件x=x‘和事件y=y’,如果x=x时,事件y=y的概率。李冲刚上大二,现在的兼职工作薪水是5万;如果李冲大学毕业,他的年薪是10万的概率为多少?在给定实际情况的前提下,能够进一步去想象并预测一种反事实状况,这才是真正的人工智能。

不妨考虑这样一个情景来阐释这三个层面,假设存在如下连续事件构成的情景:法庭宣判犯人执行死刑、队长下达任务、枪手甲和乙分别同时开枪、犯人死亡。(ibid.,pp.39-46)

在第一个观察层面,我们可以问这样的问题:如果犯人死了,那么法庭宣判没有?由果溯因,我们知道犯人死了是因为枪手开枪,枪手开枪是因为队长下达任务,队长下达任务是因为法庭宣判,从而得到法庭宣判的答案。第二个问题可以这样问:如果甲开枪了,那么乙开枪了吗?这是一个相关性问题,甲和乙开枪是互相独立的事件。但我们可以分析,如果甲开枪了,那么队长下达了任务。和甲一样,乙接受到了任务,那么乙也开枪了。在第二个干预层面,我们可以追问:如果杀手甲不等队长下命令就开枪,那么犯人是死是活?答案很简单,犯人死了。这种干预直接导致了犯人的死亡。在第三个想象层面,我们可以进一步追问一个反事实的问题:如果甲不开枪,那么犯人还会活着吗?给定实际犯人死亡,那必定两个杀手都开枪了,因此肯定队长下了命令,法院下了判决。即便甲不开枪,乙还是会开枪,导致犯人死亡。

通过对这三个层面的分析,珀尔认为机器只有攀登到可处理反事实推断的层面,才会具有真正的因果推断能力。他把反事实推断作为因果推理的核心特征。珀尔区分了机器如何获得因果知识和机器如何表达因果知识这样两个问题,我们不妨分别称之为“获得问题”和“表达问题”。珀尔的工作聚焦于“表达问题”。机器要想能够表达因果知识,首先就需要为因果关系构造一个形式化模型。但是如何让机器获得因果知识,这一点则更为困难。为了回答这一问题我们需要进一步回答另外两个问题:第一,人的因果认知模型到底是什么样的。第二,因果认知模型是否必然依赖其生物演化机制。

三、从因果推断到奇点问题

在《奇点:一个哲学分析》一文中查尔默斯论证说:人工智能发展奇点的出现在逻辑上可能的。(cf.chalmers)以逻辑的可能性论证为基础,查尔默斯提请科学家必须慎重对待奇点问题。因为这是关乎人类未来走向的一个重大哲学问题。奇点的出现哪怕只有1%的可能性,都需要我们严肃认真地来对待。

查尔默斯为奇点的可能存在给出了这样一个论证:

(1) 将会出现ai(不会太久,缺乏反对证据);(2)如果会出现ai ,那么也将会出现ai (很快,缺乏反对证据);(3)如果会出现ai ,那么也将会出现ai (很快,缺乏反对证据);结论:(4)那么将会出现ai (不会太过遥远,缺乏反对证据)。

他这里所说的“不会太久”是指在一个世纪以内,“很快”是指在几十年之内,“不会太过遥远”则是指在几个世纪之内,“缺乏反对证据”是指缺乏阻止智能系统运用自己的智能能力去制造智能系统的证据。同时也可能存在一些外部偶然因素比如大灾难之类。从人工智能内部来看,似乎不存在反对这种可能性存在的证据。人工智能的核心是算法问题,其进化主要基于算法,而计算速度每两年就会翻倍。在人工智能达到人类水平之后计算机会进一步加速。一年之后速度会再次翻倍,如此加速,时间不断缩减,六个月、三个月、一个半月,……直至达到奇点。

此处我们并不具体分析查尔默斯奇点论证的有效性,而是致力于澄清奇点反对论者关于奇点问题的三种主要误解:算法问题、主体性问题和生物基础问题。三个问题彼此关联,相互支持。

首先,是关于算法的问题。

目前人工智能的算法大概分为三种:基于演绎推理的算法(符号逻辑推理)、基于归纳推理的算法(概率推理)、结合归纳和演绎的算法因果推理。对算法的批评有两种,第一种来自哥德尔定理应用的批评,针对的是上述三种形式推理系统。由于哥德尔定理表明一切形式系统均具有不完备性,因此这种批评是一般性的:人类可以发现形式系统的局限,但计算机发现不了自身的局限。针对这一类型的批评,图灵在《计算机与智能》中早有回应:“尽管已经证明任意一台特定机器的能力都是有限的,但它没有任何证据表明,人类的智慧就没有这种局限性”。(turing,p.446)人类也会经常犯错,以判定哥德尔定理来质疑人工智能,实际上是要让机器具有人不具有的能力。自20世纪60年代以来,人们对于这个问题一直有广泛的争论。卢卡斯认为,人类要比任何机器都复杂,机器不能识别哥德尔定理的真假,但人可以:

给定任何一致的和能够做初等算数的机器,存在一个这台机器不能产生的为真的公式——即这个公式在此系统内是不可证明的——但我们能够看出这个公式为真。由此推出,任何机器都不可能是心灵的一个完全或充分的模型,心灵在本质上不同于机器。(转引自程炼,第14-15页)

查尔默斯对于这一批评的回应是:这个思路基本上还是图灵式的。在《有意识的心灵》第四部分关于人工智能部分,查尔默斯谈到:

没有理由相信人类能够看到关于哥德尔定理的真相,或者,充其量,我们能够看到如果一个系统是一致的,那么其哥德尔语句是真的,但是没有理由相信,我们能够确立任意形式系统的一致性。……所以,很有可能,我们中的每一个都能模拟形式系统f,却不能确定f是否是一致的。如果是这样的,我们将不能看到我们自己的哥德尔语句是否是真的。(查尔默斯,第396页)

在《皇帝的心脑》中,彭罗斯也给出了机器不能充分表现心灵的论证。但彭罗斯的论证“不会得出任何机器都不等价于人的全部数学能力的结论。”(邢滔滔,第105-108页)这类批评者对机器的要求超出了对人的要求。形式化系统本身的局限和人本身的局限一样是不能苛责的。

关于算法的第二个批评针对既有人工智能推理方法。从因果推断来看,当前机器学习所依赖的概率推理具有一个根本缺陷:它的模式是大数据小任务,通过获得大量数据,来解决一个专门任务。前面已经提到过真正的人工智能应该是小数据大任务,基于有限的信息,来解决一个复杂的任务。人类不是通过暴力搜索法来理解认知世界的。反事实因果推理是人类认识世界的模式,让机器具备这种能力才是人工智能发展的未来方向。我们在自动驾驶汽车上装置因果推理程序,使得汽车在即使遇到缺乏数据的情况下,也可以及时进行自我调整。因为这样的自动驾驶汽车不是考虑与突发事故相关的事物,而是可以思考到底是什么原因导致它遇到事故。查尔默斯在接受既有算法的前提下,认为奇点是逻辑上可能的。拥有因果推断能力的机器人比拥有概率推理能力的机器人更强大,更接近于人的真实推理。所以我们对于算法的因果理解可以加强查尔默斯的论证。

关于算法的第三个批评最为常见,即认为人类的心灵不能为算法所穷尽。我们不妨在智能和心灵之间加以区分,计算机具备智能,但人类是有心灵的。计算机可以模仿人类心灵中的智能部分,但心灵所具有的感受、意识、理解的非智能部分在原则上缺乏算法。而且这些心智现象具有相当复杂的生物机制,机器也不能模拟这些生物机制。如果机器不能模拟非智能的心智部分,那么它就不可能像人一样,我们既实现不了强人工智能,更不可能达到奇点。所以算法、主体性和生物基础三个问题互相纠缠,回答其中一个问题,势必要牵连到其它两个问题。这里我们可以先聚焦主体性问题,再考虑生物机制问题。

其次,是关于主体性的问题。

人生在世,我们与周遭世界打交道,因而形成了关于世界的认知。而与人类主体相关的意识、意向性、感受、理解、责任、自由意志、规范性等等似乎并不能为机器所拥有。

塞尔和布洛克认为,即使机器可以模拟人类的大脑,但也并不意味这种模拟自身就是具有心智或智能的。机器能复制我们的行为,但它忽略了人的内在的层面:意识、理解和意向性等。(cf.searle;block)智能不单纯是一种信息加工处理,算法实现不了完整模拟。图灵指出了这类批评的一种极端情形:“你要肯定一台机器是否能够思考,唯一的途径就是成为那台机器,并且去感受这台机器的思维活动”(转引自博登编,第73页),这与内格尔提出的我们“成为一只蝙蝠会是什么样”的这样一种反思思路接近。图灵指出,如果机器能够通过对话测试,就可以认为其是具有意识的。侯世达的核心主张虽然与主流人工智能保持距离,但是在这一点上则和图灵的理解基本一致:

意识是一种极其罕见的复杂组织的物理模式,而不仅仅是传统的物理活动……我们所知的属于我们自己的意识不过是人类大脑的物理活动……关键的是组织的模式,而不是构成物的本性。(侯世达,第338、339、346页)

机器是否具有意识,这一问题至少部分地和我们对心身问题的理解相关。如果你接受物理主义立场,认为一切都是物理构成的,你就会和侯世达一样认为意识是一种物理模式。如果人类具有意识,那么机器也具有意识。通常我们把大脑产生的意识分为功能性意识和现象意识却(感受性层面)。(参见查尔默斯)功能意识具有因果效力,现象意识不具有因果效力。机器可以模拟前者,但机器能否模拟现象意识却并无定论,有研究者指出,我们可以对感受质(qualia)进行模拟,发展出一套三层(亚概念的、概念的和语言的)算法。(cf.boyles)近年来兴起的情感计算也致力于在这一方向上推进,努力让机器在外显行为上具有人类情感;通用人工智能研究者(如王培的纳斯系统)则力图追求让机器自身拥有情感。总之,这些努力都是要为主体性发展出一套算法。但是将主体还原为算法,会遭遇人们的直觉反抗:人类心灵是算法不可以穷尽的。是否支持人们的这样一种抵抗性信念,实际上已经成为了人工智能哲学领域的永恒之争。这里需要特别指出的是,心灵是否可否完全被算法穷尽,这不是一个纯碎概念能够解决的问题,对于它的回答还需要依赖经验科学。

而无论机器是否具有现象意识,如果我们能够让机器具有因果推断能力,机器就可以具有一定的独立的主体地位。因为在这种情况下,它可以在考虑反事实的情况之下进行推理和行动。如果机器人开始使用反事实的语言交流,例如他们说“你应该做得更好”、“你应该把手上的砖递给我,因为我在等你,而你递给了别人”、“你应该去把厨房收拾干净”,我们就可以说机器人具有一定程度的自由意志。当人在说我应该如何的时候,他已经考虑了各种反事实情况。如果在这个意义上机器人具有了自由意志,那么我们也就可以对其进行追责了。如果我们能够对机器人进行某种程度的追责,那么追责的标准就在于机器人运用何种算法上。假设机器人甲的运行建立在符号推理算法的基础上,机器人乙的运行建立在概率推理的算法的基础之上,机器人丙的运行建立在因果推理的算法上,机器人丁的运行建立在类比推理的算法上。如果机器人甲乙丙丁同时做了一件事,那么对这件事的追责可以明显分为两类,甲和乙可以算作一类,其行为仅仅属于机械行为,因此承担较少的责任;而丙和丁属于另一类,无论是因果推理还是类比推理,由于它们都比较接近于人类的真实推理,因此丙和丁就需要承担较多的责任。

只要我们能够制造出具有因果推断能力的机器人,那就意味着我们实现了强人工智能,而如果强人工智能是可能的,那么奇点也就是可能的。在这里,问题的关键在于,除了算法革命之外,我们更需要的是一种理解上的革命。在意识问题上丹尼特反对笛卡尔式的剧场模型,他主张一种多重草稿模型,认为自我不是住在大脑中的小人。当代神经科学的大量证据也表明,大脑并不存在一个中心控制区域。因此传统哲学所理解的行为者因果是非常有疑问的,无主体的事件因果更有可能反应人类的真实生活。(参见丹尼特)侯世达则指出自我不过是一种幻觉,这种幻觉源于人类长期频繁使用的哥德尔自指句(例如“我在说谎”、“下句话为假,上句话为真”、“我如何如何”等等)经过叠加所形成的一个指称自我的怪圈。(参见侯世达)但实际上却并没有自我这样的对应物。凡此种种都要求我们破除人类是宇宙万物之灵长的传统人类中心主义立场,转而从万物平等的物理主义立场来看待智能体:

“灵魂性”绝对不是一个非开即关、非黑即白的离散变量,不像一个比特、一个像素或一个灯泡那样,只有两种可能的状态,而是一个渐变的、边界模糊的数字变量,其值域连续覆盖不同的物种与事物。(侯世达,第23页)

在传统哲学那里,主体、意识、灵魂、自由意志、责任都是介于全有或全无之间的离散变量。当代认知科学的研究则表明,这些现象都是有着程度差异的连续变量。只要我们能够接受现代研究成果,破除哲学传统既有的理解成见,我们就不会对机器拥有一定程度的主体性、意识、自由和责任持完全的否定态度。我们也不会一直纠结于机器是否是一个主体这样的问题。为机器赋予因果推断能力,已经让机器向人靠近了一步。主体性问题不再会构成我们理解奇点是否会到来的原则性障碍。

第三,是关于生物基础的问题。

有的研究者认为,由于机器缺乏生物基础,因此不能具有真正的人类智能,生物基础问题是影响奇点是否可能存在的最主要障碍。人们有一种直觉,会认为人类的生物本性是人和机器的本质差异。人类自身可以进行基因复制,大脑具有独特的生物基础,而机器的硬件核心不过是芯片,人造芯片不具有和大脑的类似功能。在《计算机与智能》一文中,图灵已经指出,有人会认为大脑神经系统是连续的,但计算机系统是离散的,离散的系统无法模仿连续系统。博登也在其近著中提出新陈代谢是生命存在的必要条件,机器缺乏生物学基础不能进行新陈代谢,因此不能成为真正的人工生命和人工智能。(参见博登)

而另外一些学者则认为,如果机器和人能够干同样的事,那对机器的这样一种苛刻要求就是不必要的。在他们看来,认为机器不能像人一样具有生物基础,从而不能到达奇点,这本身是一个误解。查尔默斯的奇点论证就指出,人工智能的进化主要是来自算法,而不是其硬件生物基础:

人工智能的历史表明,通往人工智能的最大的瓶颈是软件,而不是硬件。我们必须找到正确的算法,但到目前为止离正确的算法还很远。(查尔默斯,第13页)

不过奇点反对论者可以说算法还是不能模拟大脑的生物机制。算法的局限性表明人的主体性和生物基础是人之为人所不可或缺的。而像查尔默斯这样的学者会反驳说,大脑的生物基础真的就是神秘而不可探测的吗?既然大自然可以演化出人类心智,就表明人类的心灵机制不是神秘的。人类演化,在其开端处也并没有预设人类具有心智。既然人类心智可以从无到有自然地产生,机器的心智也同样可以从无到有自然地产生,所以在心智的意义上,奇点的到来是可能的。反对者则会进一步批评说,人类是经过几万年的漫长演化,才形成了如此复杂灵活的大脑,机器很难在这么短的时间内获得这种复杂性。反对者秉持生物学与非生物学的区分,认为人类大脑的演化有其生物基础,但机器大脑是非生物的。

在这里,我们有必要区分“模拟”和“复制”这样两个概念。机器当然不能完全复制人类大脑的功能,但是机器完全可以模拟人类大脑的功能。查尔默斯区分了人类大脑的生物物理层面和功能层面,机器能够模拟大脑的功能而不需要依赖大脑的生物物理基础。机器可以有其物理基础,这个基础可以是碳基也可以硅基。目前已经有学者在研究如何培养和训练生物神经网络,将其变为现实世界中机器人的大脑,从而完全取代计算机系统。对人类大脑的生物机制进行模拟,这将使得机器能够出现类人的心智不再是遥不可及的事。自然演化的生物本身也具有其内在局限。有机体都是由单层氨基酸排列组合而成的蛋白质组成的,蛋白质组成的机体缺乏力量和速度。而通过对大脑和身体器官进行系统改造,就可以使其性能更具优势。虽然目前生物机器人研究的进展与人类对人工智能的想象差距还很大,但是如果机器能够模拟所有源自生物机制的功能,就可以表明机械复制生物基础是不必要的。

当然,也还会有人认为生命可以新陈代谢,机器则不具备这个能力。事实上我们可以让机器具有类似的能力。目前为止,对此主张持反驳立场的人所持的唯一理由,就是认为人的新陈代谢和机器的新陈代谢是不同的,前者是真正的代谢而后者不是。两种不同立场之间的这种争辩再一次把我们带回到前边已经涉及到的算法是否可穷尽心灵的问题上来了。我们也已经提出,如果我们能够放弃对于算法的教条式理解,生物基础对于强人工智能的限制就不再是必然的。打破对人类生物机制的依赖,这是发展强人工智能,并促使其达到智能奇点的关键。

如前所论,我们区分了关于因果推断的两个问题:获得问题和表达问题。就表达问题来说,机器如何表达因果知识不需要生物基础,给机器赋予一个因果数理模型,就使得因果机器人比当前的机器人要更聪明,根据加速原理,奇点至少在逻辑上是可能的。如果要把可能性转化为实际性,这就需要机器能够学会因果知识,这是获得问题。我们可以将三岁小孩的推理模式加以形式化,但我们并不知道三岁小孩是怎么获得这一套因果推理模式的。当前的人工智能推理都是建立在人类大脑是一种“空白”的基础上,人们完全通过系统收集数据,通过训练来建立一套认知模式。但是人类的大脑是经过演化获得的,小孩认识世界不是建立在“空白”基础上,小孩的大脑已经具备演化遗传下来的初级认知模式。因此要弄清获得问题,就需要探究小孩的大脑生理结构,也就要涉及到人的生物基础层面。不过需要指出的是,到目前为止,对于小孩大脑结构的探索所得到的结论依然是开放性的:人类的生物基础对于获得因果推理模式也许是必要的,也许是不必要的。即便是必要的,我们也不需要去以一种生物的方式复制小孩的大脑,我们只需要从功能上对其加以模拟就够了。无论如何,并非如人们通常所设想的那样,生物基础本身其实并不构成人工智能发展至奇点的主要障碍。

从因果推断来看奇点问题,我们可以得到如下结论:第一,奇点的到来在逻辑上是可能的。因果推断的算法革命加强了奇点存在的逻辑可能性,珀尔建立的因果模型解决了表达问题,生物基础不对奇点逻辑上的可能性构成原则性障碍。第二,奇点是否实际会到来是一个经验问题,其可能性需要依赖于人工智能在获得问题上的进展。如果通过研究发现小孩获得因果知识的模式是实质依赖于生物基础的,机器又的确无法模拟生物基础,那么奇点就是实际上不可能的。而如果通过研究发现小孩获得因果知识的模式并不依赖于生物基础,机器原则上可以模拟小孩的认知模式,那么奇点就是实际上可能的。

四、结论

人类人工智能理论的发展经过了基于规则推理(符号主义)、概率推理(贝叶斯网络)的研究阶段,现在我们开始重视因果推理。如果说规则推理是一种演绎推理,概率推理是一种归纳推理,那么因果推理就是结合演绎和归纳的一种更加符合人类实际推理的方式。人工智能研究领域转向因果推理,这是一次范式转换、一场科学革命,这种转向对于理解人工智能和人类心智都具有不可估量的价值。以珀尔等人为代表的因果推理学派为此奠定了基础。我们相信奇点在逻辑上可能的,但奇点的可能性并不等于实际性。理解人类智力的关键在于理解小孩的先天智力模式,搞清楚小孩智力的生物基础,才能把可能性变成实际性。研究小孩智力形成的基础具有头等重要的价值。库兹韦尔非常正确的指出,未来人工智能的发展应该融合传统生物智能和机器智能。

科学家通过经验工作回答奇点是否实际可来临的问题,哲学家的工作则回答奇点是否逻辑上可来临的问题。认为生物基础会对奇点的实际出现构成原则性障碍,这样一种观点其实是对哲学工作本性的一种僭越。生物基础是否会成为人工智能奇点来临的障碍,这在根本上依赖于未来人工智能的发展。哲学家无法引用未来的证据来为奇点的实际不可能做出论证。而通过对人工智能、因果推断和奇点问题关系的反思,我们有必要重新看待哲学(家)和科学(家)的关系。在因果问题上,哲学家和科学家可以互相合作、彼此启发。例如刘易斯的反事实因果理论会成为珀尔因果模型不可或缺的部分,珀尔的因果模型又成为形而上学奠基关系的基本模型。在奇点的逻辑可能性问题上,与查尔默斯对僵尸存在的可能性论证一样,哲学家们的工作具有独特价值。而在关于奇点的实际性问题的分析上,则可以看到哲学家的工作有其界限,哲学家自身需要保持适度的理论克制。因此,重新审视哲学反思和科学探究在人工智能问题上观点之间的分歧及其缘由,这有利于加深人类对于自身的可能性及其限度的理解。


参考文献:

[1] 博登编,2001年:《人工智能哲学》,刘西瑞、王汉琦译,上海译文出版社。

[2] 博登,2017年:《人工智能:本质和未来》,中国人民大学出版社。

[3] 查尔默斯,2013年:《有意识的心灵》,朱建平译,中国人民大学出版社。

[4] 程炼,2005年:《人工智能基础评论》,载《思想与论证》,北京大学出版社。

[5] 丹尼特,2001年:《意识的解释》,苏德超译,北京理工大学出版社。

[6] 葛瑞汉,2000年:《二程兄弟的新儒学》,程德详等译,大象出版社。

[7] 侯世达,2019年:《我是个怪圈》,修佳明译,中信出版社。

[8] 库兹韦尔,2011年:《奇点临近》,李庆诚、董振华、田源译,机械工业出版社。

[9] 蒉益民,2019年:《因果理论:上向因果性与下向因果性》,载《哲学研究》第4期。

[10] 李文钊,2018年:《因果推理中的潜在结果模型:起源、逻辑与意蕴》,载《公共行政评论》第1期。

[11] 尼克,2017年:《人工智能简史》,人民邮电出版社。

[12] 邢滔滔,2008年:《哥德尔定理正反观》,载《科学文化评论》第2期。

[13] 休谟,1997年:《人类理解研究》,关文运译,商务印书馆。

[14] 朱松纯,2016年:《浅谈人工智能:现状、任务、构架与统一》,http://www.stat.ucla.edu/~sczhu/research_blog.html#visionhistory。

[15] block,n.,1981,“psychologism and behaviorism”,in philosophical review 90.

[16] boyles,r.,2012,“artificial qualia,intentional systems and machine consciousness”,in proceedings of the dlsu congress.

[17] chalmers,d.,2010,“the singularity:a philosophical analysis”,in journal of consciousness studies 17.

2012,“the singularity:a reply to commentators”,in journal of consciousness studies(7-8).

[18] lewis,d.,1973,“causation”,in journal of philosophy 70.

[19] lucas,j.r.,1961,“minds,machines,and g?del”,in philosophy 36.

[20] pearl,j.,2009,causality,cambridge:cambridge university press.

2016,causal inference in statistics:a prime,toronto:wiley press.

[21] pearl,j.&mackenzie,d.,2018,the book of why:the new science of cause and effect,new york:basic book.

[22] penrose,r,1994,shadows of the mind,london:oxford university press.

[23] searle,j.,1980,“minds,brains,and programs”,in behavioral and brain sciences 3.

[24] turing,a.m.,1950,“computing machinery and intelligence”,in mind 49.



进入 梅剑华 的专栏     进入专题: 人工智能     奇点  

本文责编:admin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 哲学 > 科学哲学
本文链接:https://www.aisixiang.com/data/129498.html
文章来源:本文转自哲学研究,转载请注明原始出处,并遵守该处的亚博电竞网的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,亚博电竞网的版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:xxx(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或亚博电竞网的版权人不愿被使用,请来函指出,本网即予改正。

|||

powered by aisixiang.com 亚博电竞网 copyright © 2023 by aisixiang.com all rights reserved 爱思想 京icp备12007865号-1 京公网安备11010602120014号.
网站地图