《发现自由意志与个人责任》第37章


乓徊炕魇艿搅讼质敌形皇窃て谛形目刂啤?br /> 思维机器不能同时进行双线推理,或在单线推理后得出矛盾的结论。思维机器的反馈存储器里储存着“真实而首要”的信息比特(“二进制数字”的缩略词),可它们不能辩证地对这些洛克式“简单单位”进行细分并重组,这一点使它们的推理带上呆滞、缺乏灵感、名副其实的机械属性。在
十分迅速地处理大量数据的同时,它们可以进行适当的比较,并按不可变更的程序求出“正确”的结果。就是说,它们作出的判断总是与程序规定的根据相一致。至于应用这些根据得出的结果是否适合,是否有利,它们却绝不能判断。所以,在推理的准确性方面,机器是超人;但在对它们为什么能如此准确地推理的“那个”作反省性检查的能力方面,它们肯定是次人。由于它们不能响应,所以它们不能超越自己的程序或它们所遵循的思维过程而认识一个人觉得是疑点的东西。如果它们赖以得出结论的数据输入正确,机器是不可能算出错误结果的,因为错误只有在推理者具有以典型的自由意志方式改变其断言(程序)的余地时才会出现。这种自由意志正是我们在前几章所讨论的。
这就是为什么价值冲突在人类事务中如此难以解决的原因。价值冲突通常出现在我们的信念得以断言的层次上。假定X、Y和Z就必然成为可以接受的行为模式。但是,如果价值X受到挑战,那么Y和Z也相应地不成立。例如,假定妇女的身体是属于她自己的,她就有权按照自己认为可行的办法处理。这样,对于涉及自己身体中不需要的一部分(即怀孕)的合理解决方法就是流产。但假定妇女身体中的生命有机体有权独立于该妇女的意愿之外,那么,合法流产就必然加以避免,因为这威胁着胎儿的生存。任何人在读到这两种价值立场时都可以体会到由此而引申出来的服从先项含义以及由此而导致的不可避免的冲突。我们或许有自己所偏爱的立场,但原则上我们还是可能从这两种前提中的任何一种出发而进行辩护。我们可以扮演一个反面的角色,强行推出
对立的论点向我们自己偏爱的价值提出挑战。
但是,思维机器甚至在原则上都不可能采取与自己对立的立场,因为它们确实无法认识这样的抉择。它们总是在给出的根据和按照这些根据组织起来的数据“之间”进行推理,从来不对这些假设本身提出疑问。这种有限形式的推理也是机器无法创造出暗含于构成它们推理过程的根据之外的任何东西的原因。要创造出一项真正的抉择,而不是单纯从相互交织的复杂的意义陈列中取出早已存在于“那里”的东西,就需要有一个能够辩证地变换根据的智性(自由意志)才能办到。
能够进行辩证推理的是人。是人开动机器;是人把任意决定出来的(而不是首要而真实的)数据输入机器中。可能有那么一天,科学的发展会使一种崭新的机器出现。这种机器会自动选择大前提作为自己的程序。那时,这种机器就会以对立的形式先验地检查输入给它的任何问题的对立面,如:A的对立面,非A;或非A的对立面——可能已不是原来想象的A了!这是辩证推理的显著属性;正是这一属性使机器挣脱了原来开始时的前提。与论题相反的命题(对立论题)确实必须由推理者创立。如果他建立第二个对立论题与第一个相对,他就不总是会回复到原来的论题上去。此时种种意义就可能变化,就足可以使人认为这是一条创造性思路,因为来自环境的最初的刺激此时不再存在,而出现了一个自发地取得的、正在得到发展的推导结果。输入到机器中去的就不再是二进制分法的“A对B”。我们很快就可以看到机器本身把“非A对非B”或“非非A对B”编成了程序。机器的所
作所为就是我们所说的一个人沿着一条扣人心弦、娱人怡趣的思路“一思到底”。
这样一台机器肯定会是一位不可靠的仆人。它并不总能解决给它提出的问题。事实上,它开始提出一些与操作者提出的不同的问题。它会扰乱一个认识主体的联想网络并引起真正的“网络噪音”。
它得出的不再是正确无误的答案,而是一些预感或猜想。而且,在对同一个问题进行双线推理得出两个同样合理的结果时,它就会以别的(任意的)前提为基础给它那自豪的主人提供一种见解,表明它偏爱两个结果中的哪一个。随着自己的见解和预感的出现,这部机器很快就会出差错——但这不过是它所作的创造性贡献的另外一个方面。总之,它会像人一样工作。我们只能猜测这样的机器在科学上有什么益处。这将是一种怪物,很难设想能使讲究实际的科学家发生兴趣。他无疑会把它看作是一种蹩脚机器——就像制造它的人一样。
至今,科学还没有发明出这样一种可以自行其是的机器,因为甚至在能编制“新”程序的现代计算机中,新程序的编制过程也是遵循不可改变的主程序的指令进行的,要超越开始的程序就得进行辩证推理。尽管这样,有些科幻小说的作者,如阿西莫夫,却已成功地给人以印象,好像响应性机器有一天终将制造出来。在他的经典著作《我是机器人》中,阿西莫夫收集了好些短篇小说,在无意之间突出了辩证与实证的对立问题。例如,在一个故事里,他描写了一个叫库蒂的机器人反复进行笛卡尔式内省并得出结论:它必须生存,因为它会思维。在这种独立思考的基础上,库蒂进而否定了制
造它的科学家们所确定的许多命题,并为它在太空站的存在与命运编造了一些其他的解释。
实际上,库蒂的所作所为已超越了通常对机器人行为的极限。它是一个聋子逻辑家,它的思维超过它的对手。但这并不仅仅是因为它处理数据的能力更胜一筹。正如一个必须对付库蒂的科学家对他的同事所说的:“用冷静的逻辑推理,你可以证明你想证明的任何东西,如果你选用的假设恰当的话。我们与库蒂都各有自己的假设。”的确,库蒂超越了程序编定的假设,并能重行组织事物,实际上以从未输入过的信息为基础而进行工作。当然,阿西莫夫没有告诉我们它为什么能这样做。他具有艺术家的天赋,使机器人模拟了人类的推理能力,尽管他并没有澄清这种推理过程的具体本质是什么。
阿西莫夫的机器人或许终究是辩证推理者。如果这样,订出“机器人三法则”就失却了意义,而阿西莫夫却用这些法则规定了一切机器人的机械性。我们可以把这些法则视为机器人的内省努力也不能违背的主程序,虽然制造任何机器时都可以给加上一个短路装置(或别的什么东西)使它在运转中无视这些法则。第一个法则是机器人不能伤害人,也不能让人遭受伤害。第二个法则是机器人必须服从人的指令,除非这些指令与第一条法则相悖。第三条法则是机器人可以保护自己的生存,除非保护措施有违前两条法则。
在一个故事里,阿西莫夫描写了一个心理学家把一个名叫赫尔比的机器人逼“疯”了,因为他使赫尔比陷入了“难以自拔的窘境”,要它从都违反机器人第一法则的两种行为进
程中决定一种。这样,赫尔比产生了“心理”冲突。如果它把推理出来的信息交给两位科学家,就会给他们造成伤害,因为这两个人要亲自去找出问题的答案;但是,如果赫尔比不能揭示这些信息,那两位科学家也因为他们不得不去解决问题而受到伤害。因为赫尔比以前曾原因说谎而在无意之间伤害过人,那位心理学家就怀恨在心,用言语来打击这个机器人。他要机器人在不可能的抉择中作出一个二元决定:“你必须〔把他们所需的信息〕告诉他们。但是,如果你告诉他们,你就会伤害他们,所以你绝不能这样做;但是,如果你不说,你也会伤害他们,所以你得说;但是——”在这种言语攻击打击下,可怜的赫尔比陷入了这一大堆控制论废话的危机之中,实际上是被矛盾律逼疯了。
自由意志总是与行为赖以发生的前提根据或断言假设有关,上面的例子是这一事实最清楚不过的证明。由于赫尔比认为那三个法则是首要而真实的,这就没有编造的余地了,因为它不可能任意改变法则的含义。但是,人类的情形却很不相同。把基督教的十诫输入人类的信息处理器里,必然会教人至少十种罪愆,尽管这十诫给人指明的是十种恰当的(即被视为有价值的)道德行为?
小说推荐
返回首页返回目录