译介 | 作为哲学与心理学的人工智能

摘要:本文翻译已被丹尼尔·丹尼特教授授权,我将对他在1981年出版的《Brainstorms: Philosophical Essays on Mind and Psychology》的第七章《Artificial Intelligence as Philosophy and as Psychology》进行翻译。丹尼尔·丹尼特是美国哲学家、作家及认知科学家。

未经容许,请勿转载

前言:这是自我写作以来,做的最重要的一次尝试。本文翻译已被丹尼尔·丹尼特教授授权,我将对他在1981年出版的《Brainstorms: Philosophical Essays on Mind and Psychology》的第七章《Artificial Intelligence as Philosophy and as Psychology》进行翻译。

丹尼尔·丹尼特(Daniel Clement Dennett,1942年3月28日-)是美国哲学家、作家及认知科学家。其研究集中于科学哲学、生物学哲学,特别是与演化生物学及认知科学有关的课题。他目前是塔夫斯大学的哲学系教授、Austin B. Fletcher 讲座哲学教授及认知研究中心的共同主任。丹尼特是坚实的无神论及世俗论者(内容来源于Wikipedia)。

我选择本文进行翻译的原因是,本文中丹尼尔对人工智能方面很多不切实际的幻想进行了根本的否定。并且在抽象概念的维度,阐述了人工智能的研究到底是在做什么。其中涉及心理学与哲学的部分也可作为对于过去几个月哲学内容的一次回顾,因此本文对于我们理解什么是科学,科学信念,与更深刻的哲学概念有着很实际的帮助。

但同时我们需要注意原书的出版时间为1981年。而近四十年中,AI技术有了非常大的发展,因此我们需要注意把握住文章有用的部分,而并非全盘接受,带着批判性阅读也是丹尼尔教授在文章开头表达的观点。

7

作为哲学与心理学的人工智能

计算机自从上个世代诞生以来就受到了心灵哲学的关注,但大多数时候,哲学家大都着眼于抽象的原理,而疏远了实际的计算机与程序。我并不认为在人工智能这个概念出现前,哲学家能在计算机上找到令他们感兴趣的哲学内容。但是从人工智能这个新的领域兴起时,它开始显现出对哲学多种多样的影响。哲学家们也适时开始回应,在这新领域知识分子的大胆宣言(1)。我在这一章中会给哲学家提供一系列针对人工智能的指南。

我们都深知,当陌生人行走在他们不熟悉的土地上时,常会对他们所见之物产生错误而又可笑的误解,而他们所提交的有关神迹与怪物的报告,也常在后来的研究中证明为莫须有的,而同时他们会忽视那些原本更重要的新事物。因此,在受到各式各样错误的人工智能概念困扰,并且浪费了大量时间与精力去钻研虚幻的概念后,我想以此为鉴,提醒其他哲学家我们面对的解释陷阱。不过因我依旧将自己看待为人工智能发展的观察者,因此,我需首先承认我所能触及到范围内的人工智能,包括什么是重要的极其原因,都并不能作为完全可靠的信息来源。还有更多人工智能领域的发现,与我还没有理清的文本存在着。因此,同我一起进入这段旅程的人们,你们要时刻清醒,在人工智能的研究中仍然存在更多可能性等待你去发掘,所以,带着你的批判性去听一个本地人的建议吧。

对刻薄的实验心理学家来说,哲学家会对人工智能的产生兴趣并不会令他们感到吃惊,在他们的眼里哲学家与人工智能都在使用广泛的概括和大胆的外推方法,他们同样对于来之不易的实验数据漠不关心,同样喜欢不严谨的内省行为与概念分析,而他们同样使用格言式的理性来给心理学划分什么在原理上不可能的,而什么又是心理学能研究的部分。对心理学家而言,这两个领域唯一的不同是,人工智能的研究者会主动去寻找理论的证明。我认为这种观察是大体上可以被证实的,但不应该被当作对其他理论学者的批判。对于理论心理学家而言,他们依然有很多工作可以做,而计算机系统被证明作为一种有效的工具来帮助他们。

心理学实际上是一门非常困难的学科。心理学的任务在于解释人的知觉,学习,认识等能力,继而使得心理学能够与生理学形成统一的理论。在心理学中有两种广泛使用的研究方法:一种是自下而上(bottom-up)的,即从一些心理学上非常基本的,被清晰定义的单元或理论性的基础粒子出发,再根据这些基础粒子搭建不同的分子,进而积累成模型来解释我们都能观察到的复杂现象。而另一种方式是自上而下(top-down)的,即尝试使用更加抽象的解构方式去解构高级心理组织,而希望借由研究这些组织,来尝试一步一步理解更精细的系统与心理过程,直到接触到与生物学相近的结构。

一种通常的理解是这两种研究方法能够也应该同时进行,但我们已经有足够证据证明自下而上的策略并不能给心理学带来更有价值的内容。在自下而上的策略中有两个较为成熟的心理学理论,其一是行为主义中的经典条件反射(Stimulus-response behaviorism),其二可被称为“神经元信号生理学性心理学”(neuron signal physiological psychology),大部分研究者对这两种理论过时这一点都了达成共识。对于前者,这种刺激-反应的结构并不能清晰证明其能够作为心里层次上的基本粒子。对后者而言,尽管突触与脉冲序列可以成为完美的基本粒子,但因为这种粒子数量过于庞大,使得研究者在放弃对于传入传出神经的研究而转向脑的时候,神经元之间的相互作用的复杂性,令他们不得不放弃对于单一神经元的研究(见第四章与第五章)(2)。

自下而上的研究方式,同样没有在其他科学领域的早期研究中,被证明有很大实用价值,例如化学与生物学。因此心理学家跟随着“成熟”的科学发展转向了自上而下的研究方式。在这种自上而下的方式中,研究的起点多种多样。面对着粗略的研究后产生的,一个实践上不可能回答的经验性问题(神经系统在事实上是如何完成X或Y或Z活动?),心理学家会提出一种更简单与初级的问题:

如何让任意的一种系统(包含A,B,C等特征)完成X活动?(*1)

这种类型的问题因为消解了一部分经验性而显得更简单;这是一个更工程性的问题,即针对问题寻找解决方式(任何解决方式)而不是去发现新的事物。这种仅用来解决问题的提问,有时候会将研究引向解决方案的总体限制性上(当然也包括我们在自然上未知的答案),而寻找到有限性即是这种先验性理论的价值。当一个人决定以这种方式来研究心理学的时候,他需要决定自己在哪种程度上接受经验性的困难,而他要做的即是填补上现有心理学样式空白的部分(3)。将现有的心理学系统的经验性边界描述出来,或是在心理学实践的描述中展示出经验性边界,才是一个心理学家描述“心理真实性”最好的方式。

比如说我们可以问到:神经元系统是如何在这样或是那样的物理学性质下,完成人分辨颜色的行为?或是我们可以问:任何有限的系统是如何对学习自然语言产生帮助的?或者也可以问:人的记忆是如何运行的,使我们可以去回答相对简单的问题诸如“你骑过羚羊么?”或是更复杂的问题例如“你上周二吃过早饭么?”又或者借用康德问到:从整体上来说,我们是如何获得任何经验的,或知道任何事物的。纯粹认识论实际上是心理学所能提问的极限,而认识论这种初步证明与心理学经验性的细节是同样重要的。一些认识论的问题如果能被更好地进行科学设计,会得出比起其他提问更好的答案。但这种哲学性的探索可能会限制那些依靠丰富数据来进行的研究。

人工智能研究者可以选择某种程度的经验性困难来开展他们的研究。例如卡内基梅隆大学的研究中,实验人员格外注重每个实验个体的表现,他们尝试通过更精细的数据来针对人的表现构造模型。其他的人工智能研究者将重心从这个程度的心理现实性转移到了更抽象化的人工智能研究中。虽然更多人对于心理学经验性目的上的研究有着更大的兴趣,但我想要表述的一点是,人工智能应该更被看待为一种与传统认识论问题相关的,更宏观与抽象的,自上而下的问题即:知识是如何可能的?(*2) 对于很多哲学家而言,人工智能无法搭建一个可行的构架,因为这涉及到了更困难的问题:人工智能限制自身获得机械性的答案(Mechanistic solutions),因此人工智能的领域无法触及康德主义者的领域,即康德有关智能的全部可能形式。人工智能只能停留在全部可能的机械性智能模式中。当然这个论断与生机主义,笛卡尔二元论,和其他反机械主义的想法类似,会产生乞题。但是和我在别处的讨论一致的是,现有的对人工智能的技术需求并不能作为新的限制。如果心理学还能够有任何作为,如果邱奇-图灵论题是对的,那么现有机械的限制并不会严重于心理学自身的乞题问题,而且谁又愿意去得罪他们呢?(见第5章)(4)

因此,我宣称人工智能与哲学(尤其是认识论与心灵哲学)同样都在对最抽象的心理学原理进行研究。但人工智能与心理学共享着与哲学不同的研究手段。在人工智能或意识心理学中,典型的研究方式是尝试回答自上而下的问题,而这些方式通常包含设计相关的系统,尝试使用那些系统来达成,或看起来达成特定的行为。之后再考虑现有系统的哪些特性具有对系统总体的必要性。哲学家常常忽视那些缜密的计算机系统设计而更倾向于固执地对人工智能的总体概念进行提问。这可能就是人工智能与“纯粹”哲学研究对于相同问题主要的研究方式差异点。而我现在的主要目的就是列举出这两种研究方式的优势与劣势。

系统设计作为在人工智能与其他自上而下的心理学研究中常见的研究策略,有着很多潜在的危险,而其中四点最为突出:

给系统内的子系统远超规定运行能力的任务。例如,将超过相对的时间与资源容许的资讯处理任务给到单独的子系统,或在更抽象层面上的产生工程学意义的非连贯性,或给子系统的任务需要子系统本身有着超过上层系统的“智能”或“更多的知识”。 错误地将现有的条件性的解决方案中的必要部分,当作总体的限制性。一个较为简单的例子是,宣称大脑使用LISP;更重要的例子需要更小心的阐明。 将自己限制在人造的子系统设计中(例如对深度的测量器或句子的句法分析)和创造一些在系统层次上不能嫁接到其他认知系统子系统的解决方案。 限制一个系统的表达仅仅在人工设定的极小“自然”范围中,而无法提供有效或可行的方法去扩大这个系统。

以上的问题对于人工智能而言已是老生常谈,而类似的问题在心理学研究中也常常出现,而这些问题更为棘手。让我们考虑以下几个例子,

危险(1):弗洛伊德的“自我”子系统与詹姆斯·吉布森不变的灵敏性感知“音叉”都在一个子系统中包含了大量内容。 危险(2):行为主义者从动物行为的必要性到人类行为的必要性的预测被指没有依据。而这种类比的错误性可以从另外一个例子里看出:即青蛙的视觉与发送到脑中的成像与人类视觉与脑中成像是完全不同的。 危险(3):我们很难看出乔姆斯基早期的句法结构系统如何与语义学的部分进行交互而产生有意义的语言表达。 危险(4):我们很难看出对于一些无意义音节记忆的模型是如何被扩张来解决相似的但更复杂的记忆工作。而人工智能的长处则在于当这其中的任何一种理论遇到了阻力的时候,人工智能常常可以提供结论性的证明。

现在,我已经将人工智能,哲学以及心理学三者联系在了一起(就如同我在标题里写的那样):人工智能既可以(也应该作为)抽象的与“非经验性”的像去哲学那样解决问题。但同时,人工智能在搭建模型的层次上应该如同心理学一样是非常清晰与专一的。因此我们从一个特定的但是非常不切实际的人工智能模型中可以学到的有价值的心理学与认识论内容,就和我们能从火星人身上学到的心理学内容差不多。可能与我们不同的是,对于火星人而言他们会将人工智能的总体理论搭建在可对人实践的心理学或认识论上。在回答最重要的问题“到现在为止我们在人工智能之上已经做到了什么?”之前,我希望能先解决在人工智能层次上的一些错误理解,这些错误理解是我们之前讨论还没有涉及的。

因为我们对于人工智能的理解是建立在一系列自上而下的认知心理学之上的,因此我们常常会假设我们在电脑上利用人工智能解构出的模拟功能与人脑的功能有某种同构性(Isomorphic)。我们从一开始了解到电脑是由数量极其庞大的基本单元组成,而这种单元构成的电脑可以在某种程度上模拟出人智能才可以做到的行为。因此我们就会进行以下的假设:因为脑也是由百万的小功能区组合而成的,而又因为我们在理解人的行为与那些小功能区之间有着某种未知的部分,所以我们认为人工智能最终的目的是提供一个可以被拆分理解的分阶式的人工智能,而这个人工智能可以与人脑中那些难以发觉的分阶式结构进行类比。

而我们常见的表述方式即是“人的器官由组织构成,而组织由细胞构成,细胞由分子构成,而分子由原子构成。”我们会去做假设,将人的结构与计算机电子元件做类比。在这个强而有力的生物图景中,会令人感到泄气的是,我们已知的部分神经系统的功能的与实际电子化的计算机设备的运行方式是不同的。而对于这种担心的标准回应即我们不应该对于计算机的本质进行过于深刻的发问(这种回应有时候被称为“谷仓问题”)——计算机本质是电子化的设备,但电子化设备可以从各种程度上模拟任何类似它的设备,而当我们在计算机中进行了很高程度的积累后,我们或许可以发觉电脑的模拟部分可以被标注到非电子化的大脑部分上去。如同很多作者已经观察到的那样(5),我们无法在不知道一个心理性现实的模型的某个特定部分是反应了自然中的事实,还是仅仅作为模型的加速器或无意义的细节内容之前,对于任何模型进行判定。一个典型的例子是:在18世纪,科学家能够建造非常精美的黄铜发条模型来表现太阳系被称为太阳分仪。太阳分仪中的那些齿轮并不能代表宇宙的实际样貌,而球体之间的反射也并不能代表任何实际关系。

当我们去研究人工智能的本身程序的时候,我们必定会看到无数的数字运算;如果这些看起来已经非常不具生物性了,我们至少对其还有一些解释的余地,因为我们之前所说的数字计算仅仅是在计算机后台工作,而并非我们应该与自然对比的部分。

对人工智能的考虑现在理论上还是可行的,我认为也许某一天我们可以宣传这种只存在于想象中的相似性可以到达到神经元的水平(但不是我们之前说的计算机后台),但人工智能的研究到现在为止还没有发现任何清晰的迹象表明我们可以前进到上述的那一步。而我们现在所见的是自上而下的计算机模型,从起初就和自然进行了区分。人工智能通常都是给更高层次的意识行为做模型,比如说概念理解与修改目的或信念,而这常常要利用上百万的基本电脑处理去模仿为数不多的,有目的性的人的特性——但没有人知道或关心那些最基本的处理是什么,因为没有人假设在那庞大的运算当中为了特定目的服务的行为,可以被确实看做心理学或是生理学。因此人工智能所模仿的心理性现实都是非常浅显的;只有那些高层次的程序的诠释与测定被当作模型。

最简单的心理性现实的人工智能模型,经常为了解释给普通人而被模糊化,它们以一种非常具有误导性的方法被展示在聚光灯下。而其中最能有效吸引观众而能激发他们幻想的就是那些看起来非常逼真的程序。让我们来看看以下的一段对话摘录(不包含程序员精妙的评论),来自特里·威诺格拉德的SHRDLU与其对话者。SHRDLU是一个生活在虚构“积木世界”中的软件,它可以操控桌面上不同颜色的方块来回应对它的命令和回答有关它所处世界生活的问题。大写的内容为电脑的回应。

在你将绿色的锥形放在小方块上之前,你有接触任何锥形么?

是的绿色的那个。

你什么时候拿起来的?

在我叠放红色的方块的时候,那是一块红色的大方块和一块绿色的大方块。

为什么?

把那块移开。

你为什么这么做?

去清理红色的方块。

你为什么要清理那个方块?

去把那个方块放在绿色的大方块上面。

为什么你要那么做?

因为你叫我这么做的。(6)

当SHRDLU在最后回答到“因为你叫我这么做的。”我们难免会因对话中明显的人性而惊呼“SHRDLU是我们的一员!”我们被诱惑做如此的宣称。如果这个人是本地人,那么他一定会对这软件产生敬畏;如果这个人并非本地人,他依然会因为这种软件的表现而对这种幻觉感到兴奋。SHRDLU的回应尽管完美的与当时的场合所吻合(而且并非偶然!),但依然是“录制下来的”。维诺格拉德只是简单地给SHRDLU整个句子之后,让它在适当的时机做出回应。

如果一个小孩给出了与SHRDLU类似的回应,我们会很自然地期待这种行为表现了他自己整体的能力:“因为你让我这么做”,或者“因为那是别人要求我做的”,或者在其他情况下:“因为我想那么做”,“因为你的助手让我这么做,”但这些为于微妙层面的回答是SHRDLU所做不到的(7)。它的行为看似十分逼真,但它并没有为我们揭开人与人交流层次的知识,比如请求与要求,或在适当情况下与他人进行合作的对话。

需要表述清楚的一点是,维诺格拉德的论文中已经非常清晰地表明了,他在哪里以及何种程度上为SHRDLU的回应进行了录制,因此任何人如果感到被SHRDLU欺骗了,那他是没有读维诺格拉德的论文。其他的自然语言系统不依靠录制的语言或者极少数需要录制的语言。

现在,一个事实依旧摆在我们面前,大部分反对人工智能的人都是对上述的欺骗手段感到气愤与不信任的人。为什么做人工智能的研究者要使用这些小把戏呢?因为各种原因。第一,他们需要用这些程序来“讲故事”,而且将原本更理智的,技术性的,与轻描淡写的内容,做成栩栩如生而又显得“自然”的对话对于那些研究者而言并非难事(比如“理性:在下命令前就去做那件事“REASON: PRIOR COMMAND TO DO THAT”)。第二点,在维诺格拉德的例子中,他所尝试的是揭示当我们在人工智能中做语言结构分析的时候,我们能接受的最低程度是什么(注意到在上述例子里,句子中的代词前置)。因此我们能够通过检查人工智能“自然”语言的输出,来确定我们对于自然语言的研究与输入部分是否合理。第三点,将录制的回答放入程序中,这么做的确十分有趣。无论是去用来戏耍那些不会被骗到的同事或是那些并不明白原理的门外汉,这都是有趣的事情。作为一个门外汉,我们必须学习如何才能不被这种看起来真实的人工智能所迷惑,人工智能这种人造的真实性就如同化学家们各式各样的玻璃瓶,或是二战中被画满牙齿的战斗机一般,仅仅是一种看似吓人的幻觉。

约瑟夫·维森鲍姆有名的ELIZA程序(8),电脑“心理治疗师”看似拥有智慧与同情心可以聆听他人的问题,但制造它的部分目的是给被人工智能的逼真性激起热情的研究者而做的解药。这个软件中大部分是清晰的录音,而它并非作为任何心理学意义的现实模型而存在,它不过是作为一个研究者会多容易被程序戏耍而期望过度的例子而已。它只是单纯利用人输入的句法结构,而并非有任何实质性的理解。这就如同卡尔·韦尼克理论中的失语症,即一个人可以向提问者说出有格式的,甚至是句法正确的回应,但这种看似理解的幻象只能持续很短的一段时间。

当研究人工智能的社群,为了吸引注意力而做的好玩的事情的时候,他们会为这种误导性的行为付出代价。不仅在人群中会助长“做人工智能的研究者,就是一帮骗子与黑客”的想象,而且会让更多严重错误的人工智能概念被传播出去。比如维诺格拉德在SHRDLU中的真正贡献并非他创造了一个可以表达与理解英语的程序,这个程序在不同层次上都可以对应心理现实性研究的(尽管这是软件所体现的逼真性,也是很多人对于该研究的赞誉,不过维诺格拉德本人并不应为此负责)。而维诺格拉德真正的贡献是,他发现了任何系统最深层次的要求,任何只要是能够接受命令(在自然语言中),做计划,改变体系与检测变化发生的系统,在他的研究中,他都阐述了这些系统共同的问题,并且给出了巧妙与可行的部分解决方法。而那些有关SHRLDU系统本身不能充分对不同词语的产生理解与其运行速度缓慢的批判,并不能影响到维诺格拉德真正的贡献,甚至这些全部正确的批判与这些贡献本身都不相关。

事实上,对于SHRDLU(和与之类似系统)表现的过分关注,体现了人们对于AI系统一个错误的认识。人工智能系统并非经验性的实验,而是让电脑进行的一种人工的思想实验。最近,一些人工智能的研究者开始称呼他们的研究为“实验性认识论”。这个不幸的名词一定会让哲学家血压升高,但如果人工智能自称为认识论思想实验(甚至是:思想实验的认识论Gedanken-experimental epistemology)哲学家应该对此感到安心。那些被人工智能的思想实验所提出与解答的问题都是和系统有关的,即我们是否能在特定设计好的系统中获得某种程度的信息处理能力——识别能力,推断能力,对不同种类能力的控制能力。而回答通常都是否定的。消除法的阴影在人工智能中逐渐显现。一些相对可行的方案已经充分表明了,人工智能整体上并不能给出我们需要的行为,对于这件事情的认识是十分重要的进步,尽管这意味我们并不能创造复杂思维的机器人。

而人工智能的硬件实现是几乎是不必要的。这就如同把铅球从比萨斜塔上扔下的实验,他们所做的证明对于理解理论本身的人而言是非常多余的,但对于其他人来说却是充满说服力的。那么对人工智能而言计算机是不相关的么?“从原理”来说是不相关的(就如同“从原理”来说在黑板上的图示对于学习几何是不相关的),但是实践上并非如此。

我在文中曾形容计算机是思想实验的人工调节器。我这么说的意思是:将科研人员自身的妄想排除在思想实验外是十分困难的;计算机模拟能迫使我们认识到这些想象出的设计的价值。如同芝农·派利夏恩的观察,“我们需要的是......一种科技性的语言与一种限制我们想象的规则。”(9)而电脑所提供的限制是无法被抵赖的(这一点对于计算机编程的初学者尤为明显)。这可以说是一件好事——就如同我之前提供的理由——也可以说是一件坏事。也许你知道你身边的某人过于沉浸于桥牌,而他的生活在他眼中就变成了一系列的出牌,结束与对出鬼牌。每天早上他都认为自己在抽将牌,而任何时候他看到工期的结束他想象这是盖牌。而计算机语言看起来对人有着类似的影响。尽管我不会去引述其他例子来证明这个观点,但我认为很明显的是当我们在尝试驯服这种芝农·派利夏恩所说的“技术性语言”的时候,我们自身的想象力也会被这种技术所消弱。(9)

我们经常会说电脑对于其使用者的想象力会有很大的影响,而我们却忘记了电脑实际上是用一种非常明显但又被低估的方式做到的这一点,这种方式是电脑纯粹的运行速度。在电脑出现之前,心理学的理论学者只能强迫自身忽视来自于大量复杂的运行过程中能产生的可能性。因为我们无法清楚,在哪个运行过程中这些笨重的机器会产生失败的结果。所以在之前,心理状态的标志特性即是其不可测的多变性。有人可能会说思考的速度决定了主观的“快”的上限,光的速度决定了客观“快”的上限。现在,让我们假设根本不存在任何电脑,但不知为何(可能是因为某种魔法),肯内特·科尔比梦到了这些流程图,而这些有目的性的模型是作为人在妄想症中的一部分行为。(这些流程图来源于他的书,Artificial Paranoia,Pergamon,1975;图 7.1是主要的流程图; 图 7.2与7.3是放大的流程图。)

对于每个人,甚至我认为对科尔比本人而言,这是一个被异常简化的妄想症模型,但如果不曾出现电脑给我们展示全部的流程是如何在几乎是一瞬间完成的,那么我们会更倾向于在一开始就否定这些流程图,而把它们当作无意义的事情,一个鲁布·戈德堡机械。大多数的程序在慢速过程中都如同在做无意义的事情,但如果我们将其加速,它们的工作就能展现出看起来自然而灵活优雅的一面,但这种优雅的一面是完全无法在慢速情况通过研究程序本身而被察觉的。(让我们比较大量的植物生长与含苞开放的照片在快速与慢速情况下我们能做出的反应)而蕴藏在人工智能的运行上的优雅可能仅是一种错觉。也许自然在各个层次上都是优美的,但不知是好是坏,计算机的速度让我们从理论家的想象中解放了出来,并且开启了可能并且可行的复杂

以上便是小编给大家带来的《译介 | 作为哲学与心理学的人工智能》最新资讯,希望对大家有用。更多资讯,请关注齐发游戏