人工智能哲学笔记

目录

背景

  • 来源:复旦大学公开课:人工智能哲学_全 7 集_网易公开课
  • 讲师:徐英瑾教授
  • 课程介绍:本课程从人工智能科学发展的科学史概要出发,讨论了哲学思辨和人工智能研究之间的密切关系,并从人工智能的角度,重新审视了近代欧洲哲学对于 “机器是否能够思维” 这个问题的思辨结论。尔后,讨论了如何从当代计算机科学的角度来解读康德哲学,并从中得到一个关于类比推理的计算模型。本课程也讨论了当代美国哲学家塞尔对于 “计算模型如何获得关于符号的语义知识” 的忧虑,并进一步探讨了这一忧虑在计算机科学内部的表达形式:框架问题。

为何人工智能科学需要哲学的参与

  • 哲学研究的特点:

    • 思考大问题,澄清基本概念。
    • 在不同学科的研究成果之间寻找汇通点,而不受某一具体学科视野之局限。
    • 重视论证和辩护,相对轻视证据的约束。
  • 就对哲学文化的宽容度而言,AI 就是自然科学界的一个艺术。AI 是头脑风暴的产物。

    • 先导者:阿兰·图灵
      • 1950 年 Mind 杂志发表的《计算机器和智能》提出了著名的 “图灵测验”。
      • 行为主义的哲学思想,对外在心灵的判断仅仅是通过外部表现行为来判断,而不是内在活动。
    • 美国达特茅斯学院关于计算机实现人类智能的会议
      • 1956 年,会议筹备期间,麦卡锡发明了 Artificial Intelligence 这个词,人工智能学科诞生。还有明斯基、纽厄尔、西蒙等大牛。
      • 会议讨论的子课题:自然语言处理、人工神经元网络、计算理论以及机器的创造性等。
  • 为什么 AI 有哲学维度?

    • AI 必须对 “何为智能” 这个问题做出解答。然而,不同的解答往往会导致不同的技术路径。
      • 未雨绸缪,知道的足够多,有很多解决方案:专家系统
      • 人工大脑,对于人工大脑的模拟中,出现了人工神经元这门技术,就是对于人类的神经元网络进行数字模拟,然后在此基础上,希望被模拟出来的系统能够具有人类神经元系统的特点。
      • 行为主义,智能是黑箱,只要找到输入和输出的映射关系就是智能。
    • AI 科学研究与一般科学研究相比,缺乏删除不同理论假设的决定性的判定例。AI 科学家一般不做实验,而只做试验,就这一点而言,这么学科似乎更像是工科,而不是理科。
    • 关于智能、人类的思维是什么哲学思考的最多。另外,AI 所关注的思维结构某种意义上必须具有抽象性,因为它横跨人和机器,哲学家所提供的那种抽象思维方式也许更有用。
    • 不成熟学科,哲学容易参与。
  • 历史层面证明哲学强的国家对 AI 也有反哺作用

    • 美欧对比
      • 美国进行 AI 研究的优点:资金充裕,科研机制有活力,哲学和科学互动频繁。
      • 欧洲:财力、体制(如德国的哲学研究偏向人文经典的解读,使得哲学研究难以对当下的热点问题作出及时回应;文理分科问题比较严重;跨学科研究支持力度相对小)等。
    • 日本
      • 日本 AI 研究的特点:日本的经济结构不是一个纯粹的西式的自由主义的体系。重大科研项目由政府牵头,集中力量攻关。和我们的思维很像。
      • 日本研究第五代计算机(自然语言处理,听懂 90%+ 的日语)失败的主要原因:看到了 AI 建构的工程学面相,却没有看到其背后的哲学难题(如什么是智能)。
    • 前苏联
      • 苏联 AI 研究落后的原因:第一,苏联官方缺乏 AI 研究方面的远见;第二,苏联官方意识形态对于马克思主义的曲解(“人工智能是独立人脑,能够独立产生智慧和生产力” 违背了 “机器只能转移价值不能生产价值” 的观点)。我们的今天的科研体制很大程度上仍然受苏联的影响。
      • 对维纳控制论的反对和赞成也都是站在政治图解的思维里。
      • 归根结底,是对马克思主义做了教条主义的理解,哲学仅仅是意识形态的工具,而不会对实际的工程学研究产生任何积极的思想。
    • 中国 AI 研究存在的问题:
      • 长期跟风研究,缺乏真正系统的原创性思维。
      • 注重模仿,轻视原理;缺乏哲学兴趣。
      • 跨学科研究缺乏体制保障。
  • AI 是科学和工程学的一种奇妙结合,它并不以描述自然为终极目的,而以制造出合乎人类需要的智能机器为工作目标。所以对于如何实现这种目标,如何理解这种目标,AI 本身就具有一个比较大的宽容度,而这种宽容度是使得它能够和哲学相互交流的一个契机。

近代欧洲哲学与人工智能

希腊文明对 AI 的滋养

  • 德谟克利特

    • 受 “机械唯物主义” 影响。
    • “灵魂原子” 只是比别的原子更为精微和灵活而已,并非在本体论上自成一类的对象。
  • 毕达哥拉斯

    • 明确把 “数” 视为世界的本原,这就为后世科学对数学语言(以及一般意义上的形式语言)的推崇下了大调子。
  • 苏格拉底和柏拉图

    • 对自然语义的歧义进行澄清,然后通过找定义的方式对我们所说的很多概念加以清楚厘定。
    • 自然语言直觉中以为掌握的概念经过哲学反思后发现都不正确,所以要找到精确的泛型,什么东西都要形式化(对问题形式定义)。比如应用题,从 “自然语言” 的描述中得出一个 形式的数学的模型。
  • 为什么机器智能的想法没有在古希腊出现

    • 在古希腊人那里,机械唯物主义和形式主义传统基本上还是两个路子,而没有机会在同一个思想体系中得到整合。
    • 心智理论的构建还不是古希腊哲学家的核心关涉,而只是其形而上学理论的一个运用领域。
    • 奴隶制的社会条件下,人工机械的发展水平有限。

近代哲学

  • 条件发生了变化

    • 知识、人性、理解问题,促进对人类的心智进行思考。
    • 伽利略导致的物理学革命,形式和物理结合。
    • 各种机械日益精进,对机械系统潜力的乐观估计
  • 笛卡尔和莱布尼茨

    • 表象(唯理派,传统像符号 AI 重视数理和一般意义上的科学研究)看他们是支持人工智能,其实不是。
      • 理性派认为直觉、经验只不过是改头换面的推理,归根结底一切都是推理。
      • 唯理派认为任何心智活动的实质是符号表征层面上的推理活动;符号 AI 认为任何符号表征层面上的推理活动就是心智活动。
      • 计算机先驱不一定支持人工智能,计算机技术和人工智能是两个不同的东西。
    • 笛卡尔是二元论者,即认为人是占据广延的物质实体和不占据广延的灵魂实体的复合体。智能和灵魂有关,灵魂不能还原为物质,智能是灵魂的一部分,智能不能还原成物质,所以物质的配置形式不可能构造出灵魂的配置形式。
    • 笛卡尔《方法谈》对人工智能正面的讨论(机器智能不可能):它们不会使用语言和记号,或者不会像我们那样组织。它们在特定领域工作,不会学习。
      • 从 “机器能够表达词语” 出发,我们推不出 “机器能够根据环境的变化而调整语义输出策略”。(反驳:现在的 AI 已经很聪明了)
      • 如果我们真的要做出一台 “智能” 机器的话,我们就需要把所有的问题解决策略预存在其内置方法库中,但在实践上这是不可能的。
    • 莱布尼茨《单子论》
      • 磨坊论证:知觉以及依赖知觉的东西不能用机械的理由来解释,不能用形状和运动来解释,不能用广延的东西来解释。
      • 一个智能体放大,发现零件推动,找不到知觉。机器不能有知觉,所以没有机器智能。(反驳:看不到不等于就没有,比如放大大脑,大脑在知觉时,我们是看不到知觉的,只能看到神经元和电脉冲。再比如灰尘看电视机的画面也是看不到的。)
      • 空间中就不存在单子。
  • 霍布斯《利维坦》

    • 所有人类的理智活动归根结底都是一种形式符号的运算。
    • 我们都是理性动物,可以做各种计算。
    • 与物理系统假设想和:对于展现一个一般的智能行动来说,一个物理符号系统具有必要的和充分的手段。物理系统不聪明,只是没有找到好的编程方法。
  • 休谟

    • 理性没有什么原则,仅仅是一种习惯。
    • 习惯的根基在于感官经验,而不是在于一些理性的讨论。
    • 核心术语
      • 印象:接近于感官
      • 观念:接近于符号
      • 感觉:中间的东西
    • 习惯实际上是一种统计学机制
    • 联结主义:输入层是印象,中间层是感觉,输出层是观念。每一个神经元都不知道自己在干嘛,是整个 network 在处理,没有很清楚的规则来让它进行推理。

习惯是统计学机制,根据维特根斯坦的结论,是否应该将 “习惯” 作为逻辑命题(从习惯、数据中提取规则),而将例外情况作为经验命题?

康德、类比推理和 “照猫画虎”

康德

  • 认为唯理派和经验派对人类认知的看法都有所偏颇,经验派比较重视怎么样从感觉的经验材料出发一步步把符号表征加工出来;唯理派认为感知经验不重要,我们在先天观念的帮助下构成知识。康的认为:概念的能力+直观的能力 = 知识
  • 侯世达(美国计算机科学家 Douglas Richard Hofstadter)和他的学生查尔莫斯(澳大利亚哲学家 David John Chalmeres)的 “照猫画虎”
    • 1992 High-level perception representation and analogy: A critique of artificial intelligence
    • 这篇文章是受到康德的影响写出来的:很早人们就知道直觉活动是在不同层面上进行的。康德将心智的直觉活动划分为两个板块:其一是感性能力,其任务是拣选出那些感官信息的原始输入,其二是知性能力,其任务是致力于把这些输入材料整理成一个融贯的、富有意义的世界经验。
  • 康德:自下而上的感性能力和自上而下的知性能力的综合
  • Why 康德:
    • if 休谟:人类知识从感官来,那很难说感官经验里得到的信息最后是怎么具有知识的普遍性必然性的。永远面临对知识的普遍性和合法性进行辩护的难题。
    • if 莱布尼茨、沃尔夫:认为知识只和先天观念和先天范畴相关,和经验不相关,就会面临:怎么说明知识和经验世界之间的关系,怎么保证知识不是从书斋里幻想出来的。
    • “自下而上” 与 “自上而下” 两条道路在康德那里整合的根本原因:他既要保证知识在经验中有它的用途,又要保证知识有它的普遍必然性,他就觉得要把两者的优点结合在一起。

类比推理

人工智能专家不考虑上面哲学家说的问题,他们作为工程师的思维:

  • 尝试不同方法,能搞定的就是好方法。
  • 要拿一件足够有说服力的事情,就是做类比思维的计算机模拟,看哪种方法好。

类比思维在人类日常思维中非常有用的一种思维。即以旧推新。类比思维有时候有效,有时候无效;因为人类碰到的很多新情况和旧情况相比完全不同。

哲学家用语言描述有歧义,计算机模拟要写成程序,是确定的。人工智能使得哲学家变得诚实。——丹尼尔·丹尼特

  • 例子:孔明之于(),可类比与管仲之于()。A.张飞;B.刘备;C.董卓;D.貂蝉;E.齐桓公。
    • if 休谟:看习惯,即已有数据中的共现关系(统计学方法)。
    • 统计学的策略有两个根本缺陷:
      • 很多对问题求解有用的新类比关系,往往是缺乏统计数据支持的。没有主动修正过去实际的能力。比如搜狗的热词。
      • 对于系统输入历史的这种高度依赖性,将大大削弱系统对于输入信息的主动鉴别能力。
    • if 霍布斯主义者:预先要求我们把所有概念说成很清楚的含义(各种属性和关系),系统就找里面的类比物。孔明-刘备 与 管仲-齐桓公 之间有共同模板。
    • 如何在关系中找到共同模板?
      • 计算量太大(如果每个概念的属性很多时)
      • 从康德那里得到启发,建立从高到低和从低到高两种检索,有了 “照猫画虎”

照猫画虎

  • 在大量数据(如字符串 abc iijjkk)中找到类比关系

    • abc:两个后继性标签
    • iijjkk:三个同一性标签,两个后继性标签
    • abc 与 iijjkk 都有两个后继性标签,abc 可以类比于 iijjkk
  • 为了做成这个事情,系统需要的配置:

    • 人工的感性能力:对短码的解读能力。在例子中就是表征 abc iijjkk。
    • 人工想象力:在康德的心智理论中,“想象力” 是介于 “感性” 和 “知性” 之间的一种能力,其任务是对感官输入进行初步处理,以便为知性的高级操作做准备。在例子中就是给 iijjkk 贴标签这个事情,知性就是对这些标签进行一个评估
    • 例子:看立方体,一次只能看到三个面,但我们知道有六个面,是个立方体。把握立方体的过程就是感性和知性相互协调工作的一个过程,感觉的最基本的能力会在我们看到三个面时抓到一些碎片的特征(如顶点的形状),然后慢慢整合出全面的情况,知性告诉我们这是一个立方体。但是我们不知道哪里是分界
    • 人工范畴表:康德心目中的知性范畴表,大致对应于 “照猫画虎” 程序中的 “滑移网(slipnet)”。基本的思维框架,比如刚刚的:同一性、后继性。再比如:因果性。
    • 感性(康德:时间和空间的把控能力,前后就是一种时间关系)会唤醒想象力,想象力会产生很多图形,它告诉你整个认知构架因果范畴的一个感性图形就是时间上的前后相续。在想象力这个中介的帮助下,信息传到了 ”范畴“ 这个更上面的网络了,时间先后关系被唤醒了,所以因果关系也就出来了,它出来后会把更多的注意力注意到前后相续这件事情上,按照因果范畴这样的眼光来看待前后两件事情,其他范畴暂不工作
    • 例子:斥候相当于感性,司令部相当于知性范畴(佯攻、主攻、投降等等),参谋整合和情报分析相当于想象力。
    • 信息的传播是双向的:从底层往上、从上层往下。上面听到下面有个整合的过程,整合完才传到下面。休谟的哲学就是只听下面的,莱布尼茨的哲学就是下面的是机器人。康德的哲学就是上下有灵活的互动。
  • 康德:概念无直观则空,直观无概念则盲。 VS 照猫画虎:滑移网无短码算子则空,短码算子无滑移网则盲。

  • 局限性:

    • 只是在高度模拟(对基本的字母代码进行类比运算),应该在各个感官上全面复制康德对于时间、空间或知性范畴的所有想法。

总结:康德的哲学描述平移到可以操作的、可以编程的工程学层面指导具体工作。不是哲学的问题,而是搞哲学的人的问题,不具备跨学科的能力。

这块内容和深度神经网络非常类似,从底层传递到高层,再从高层反馈至底层。
有一点需要特别注意,在高层,注意力应该根据任务不同而放到不同的抽象关系上,而不是所有的。
是不是可以把无监督的抽象信息(或者其他方式获取的抽象的关系,比如词性)替换为现有的 Attention(现有的 Attention 其实并不是注意力,而更像是 Memory)呢?

汉字屋论证

汉字屋是用来反对人工智能的可能性的一个非常重要的哲学论证。
《心灵大脑与程序》中提出,该论证的重要的一个概念前提就是对强 AI 和弱 AI 的区分。

塞尔

  • 塞尔对于强 AI 和弱 AI 的区分:

    • “强人工智能” 这种观点认为 “计算机不仅仅是人们用来研究心灵的一种工具,而且,被恰当编程的计算机本身就是一个心灵。”
      直观非常不靠谱,经常引导我们走入思想的泥潭
    • “弱人工智能” 认为计算机至多只能够成为人们研究心灵的一种工具,或是对心智活动的一种抽象模拟。
  • 塞尔论证的框架:

    • 大前提:每一种真正的心灵或智能都必须有能力在符号与对象之间建立起一种语义关系。
    • 小前提:这种语义关系无法仅仅通过任何一台被恰当编程的计算机所获取。
    • 结论:计算机本身不可能具有真正的心灵,因此强 AI 无法实现。
  • 塞尔的汉字屋实验是用来证明小前提的。实际上是一种 ”思想实验“。

    • 思想实验:指的是使用想象力去进行的实验,所做的都是在现实中无法做到或现实未做到的实验。

汉字屋实验

  • 中文房间 - Wikiwand

  • 条件:

    • 初始条件:说英语的被试被关在密闭房间通过传递字条和屋外的懂汉语的人交流;屋外的人判断屋里的人是否真懂汉语,屋里的人要想方设法欺骗屋外的人自己懂汉语。
    • 其他条件:字条本身只能够用汉语写成。
    • 被试的资源条件:不能有英汉或汉英字典;很多写着汉字的卡片,规则书(在面对由哪些汉字所构成的问题时,应当如何从盒子中取出相应的汉字而构成合适的应答)。
    • 行动速度非常快
  • 结论:屋外的人无法判断屋里的人是否真的懂汉语。但是就算计算机真的达到这种程度了,它也不可能真正具有智能,因为它并没有真正的理解语言。塞尔认为它只是机械地搬运各种符号,而不理解符号的真正含义。

  • 汉字屋实验是图灵测验(计算机和人类交谈时,人类是否能够发现对方是计算机)的衍生版本,反过来用:即使通过了图灵测验,仍然没有智能。

反驳

  • 他心应答:子非鱼安知鱼之乐。汉字屋的论证让我们可以怀疑任何一个人是否懂任何一种语言,这和初衷(人和机器不一样,人比机器高明,按照这个标准,人都是不懂任何语言的)不一样。因为没有人认为人本身都是不懂任何语言的,所以我们用来捍卫人的标准也可以用来捍卫机器,一视同仁。

  • 系统论证(以偏概全):承认一句话是对的:”被试不懂语言“。但是计算机不仅仅是被试,还包括规则书,规则书+被试=系统,系统懂汉语。

  • 计算机没有办法在语言符号和所代表的外界事物之间所建立的联系,但是我们可以把这种联系加上去。但是塞尔反驳,即使建立联系,那种信息仍然是数码化的。他认为这种转换是有问题的,整个计算系统和原始世界的原始关系已经被破坏了。再反驳:人类也是进行一些转换。

  • 从根本上反驳(课程老师的反驳):

    • 塞尔的三个预设:
      • 汉字屋系统和计算机系统之间是同构的。
      • 即使整个汉字屋系统能够通过汉语测试,汉字屋中的被试也不懂汉语。
      • 行为主义是错的,也就是说,从系统的外部行为特征中,我们无法确保其内部状态是否具有智能。
    • 这三点放在一起有逻辑矛盾。反证法(12 步):
      • 第一步:汉字屋系统和计算机系统存在着实质性的可类比关系。(塞尔说的,假设是对的)
      • 第二步:汉字屋论证的有效性,必须以(1)为必要前提(这一点是自明的)。
      • 第三步:汉字屋论证的一个核心目标,就是指出:一个系统在外部行为上具有语言智能,并不能够代表其真的有智能。(塞尔预设的一部分)
      • 第四步:由于(1),汉字屋中的规则书对应于计算机系统中的程序,或者是万能图灵机的机表(根据塞尔自己的叙述)。
      • 第五步:在假设系统的硬件条件不变的情况下,一个 AI 系统的智能程度的高下,关键在于如何编制程序。不执行任何程序的纯硬件没有任何智能。(计算机聪明不聪明看程序)
      • 第六步:由于(4)和(5)整个汉字屋系统通过汉语测试的能力的高下,取决于规则书的编制水平,而被试本身是谈不上智能的,它必须要执行某种程序,才能体现出这种程序的智能。
      • 第七步:即使整个汉字屋系统能够通过汉语测试,汉字屋中的被试也不懂汉语。(塞尔的话)
      • 第八步:塞尔如何确定第七步是真的呢?在逻辑上只有两种可能性(反省和行为):
        • 8A:我们可以确定被试具有某种内部反思能力,以确定自己依然不懂汉语
        • 8B:我们可以从被试的外部行为中确定他不懂汉语。
      • 第九步:(8A)若是真的,则和(6)矛盾,因为被试的内部反思能力的存在就等于说他可以执行一个独立于汉语规则书的程序。为了维护汉字屋系统和计算机系统之间的可类比性,我们就必须得删除(8A)。
      • 第十步:(8B)若是真的,则和(3)矛盾,因为根据(3),从汉字屋系统的外部行为中我们无法判断出被试是否真懂汉语。为了不和汉字屋论证的最终目标相抵触,我们就必须得删除(8B)。
      • 第十一步:塞尔没有理由说清,为何即使整个汉字屋系统能够通过汉语测试,汉字屋中的被试也不懂汉语。这自然会造成整个汉字屋论证的崩溃。
      • 第十二步:之所以可以得出(11),乃是因为我们发现(8A)归根结底会和(1)不相容,而(8B)归根结底会和(3)不相容。也就是说,为了维护 “汉字屋中的被试也不懂汉语” 这个步骤的有效性,我们要么就去否定汉字屋系统和计算机系统之间的类比的有效性,要么就去放弃整个论证的反行为主义目标。但无论如何选择,我们都将再次导致整个汉字屋论证的崩溃。
  • 小结:

    • 塞尔的哲学风格比较清明,避免使用过于难的哲学词汇,过于技术性的表达。所以他觉得计算机太难,汉字屋比较直观,所以他用类比来做,但这个类比有些地方不太成功,他过多把直觉牵扯进来,没有看清楚这种类比可能有缺陷。和莱布尼茨的磨坊论证有点类似,都是诉诸于某一种直观,但直观在很大程度上没有普遍的合法性。再次说明,直观要慎用。
    • 也让我们怀疑现象学的研究方法,因为对现象学直观的界定都非常主观。

前面三个是预设塞尔所说的计算机系统和汉字屋系统的同构性是没问题的。在此基础上进行反驳。老师的认为同构性就可能有问题。

衍生性问题讨论

  • 塞尔脑子里:语义关系和意向性关系是有关的。

    • 塞尔的哲学观点:人类所有的言语行为归根结底是一种心智活动。
    • 塞尔对意向性实质的看法:实际是指心灵的内部状态朝向外的一种能力。也就是说,它能够被用来指涉它以外的事物。
    • 塞尔对语义关系的看法:语义关系也应该是朝向心灵以外的某种东西。
  • 对上述观点有两个问题:

    • 意义真的奠基在意向性当中吗?
    • 意向性真的如塞尔所说,指的是一种心灵的内部状态和外部事物的一种奠基能力吗?
  • 对上述问题的争论:

    • 角度一:恒温计在一定程度上也可以看作是按照语义(程序的语句)的规则来行事,但恒温计没有意向性;而且又与客观世界有关(客观世界温度变化,它也变化)。所以,恒温计与语义有关,与外部世界有关,但好像与意向性无关。所以,塞尔所说的语义关系一定要奠基在意向性里面,并且通过意向性才能获得它和外部世界的关联。这个观点似乎有些问题。
    • 角度二:意向性本身的一个界说。如果说意向的对象是你与外部的一个关系,那完全可以意向指向一个不存在的东西。所以,意向性是可以存在,但它所指涉的核心对象是不存在的,也就不能说意向性就指和外部世界的一种关系,除非这个外部世界包括柏拉图所说的理念世界(理念中的东西),如此一来,整个理论应该以柏拉图的理论作为预设。

其他讨论

  • 什么是意向性对象
    • 意向性的根源是在一定的语言游戏,在一定的社会共同体里面。比如画出来的麒麟、方的圆之类。

总结:塞尔的实验和对塞尔的反驳让我们真正感受到了哲学的魅力。
在哲学上,如果真的有这样的中文屋,我们可以判断它是智能的。
其实这也取决于我们对于智能是怎么看待的,因为人类语言的灵活多变和复杂性,规则书要做的事其实和人要做的事一模一样。

更进一步,就按塞尔规则书的模式进行这样的转换(不知道具体意思,只是知道一些关系),但因为词的组合造成句子根本无法穷尽,所以其实规则书能做到这一步(就是知道进来问题的分词及其语义关系),它已经能够理解意思了,而不仅仅只是抽纸条。所以塞尔所要求的本身就是不可能的。

维特根斯坦、“颜色不相容”、框架问题和拆弹机器人

早期《逻辑哲学论》

  • 《逻辑哲学论》三件事情:
    • 世界本身的形而上学的构建应当是怎样的
    • 对于这个形而上学的世界怎样在话语中和言语中加以符号表征
    • 哪些事情是不能够用言语表征的
  • 《逻辑哲学论》与人工智能科学的 “知识表征” 任务的三个环节:
    • 对于被表征对象的形而上学理论
    • 对于知识表征的技术手段,特别是逻辑技术手段的选择问题
    • 在选定一个特定的表征手段的前提下,对于知识表征范围的可能性边界的划定问题
  • 《逻辑哲学论》与海耶斯的 “朴素物理学宣言”:
    • 一个基本想法是用弗雷格和罗素所发明的谓词演算的技术手段把人类的日常物理学知识整编成公理集,物理世界中的所有行动和活动都是公理集的推论。

晚期《哲学研究》

  • 本书关心的大问题:agent(智能体)应该在怎样的规范性条件的约束下,在历史的动态环境中,利用相关的表征工具,特别是日常语言完成某些特定任务。
  • 为何后期维氏超越了早期维氏?
    • 从 AI 的角度看,《哲学研究》超越《逻辑哲学论》的最大地方,就在于它不再把静态的知识体系规整视为哲学理论的聚焦点,而是把焦点转移到了智能体的行动,转移到了对于信息的实时处理。
    • “实时” 意味着任务有时间限制。所以著述形式的散漫,因为问题太复杂,要考虑不同的智能体在不同的语境中面对不同的实时问题求解语境所给出的不同的问题求解策略,以至于他不可能以某种规整的、统一的、一劳永逸的方式(早期)对这些问题进行解决。
    • 其实现在的人工智能教材在处理各种技术问题时也基本是一种散漫的形式,最典型的例子就是每个章节讨论一个技术问题,如:经典逻辑、贝叶斯、神经网络、遗传算法等等,章节之间基本没有技术联系。不过底层还是数学、统计学。
  • 工程学相关语录
    • 想一想工具箱里的工具,那里有锤子、钳子、锯子、螺丝刀、尺子、胶锅、胶水、钉子和螺丝钉。正如这些工具的功能各不相同一样,词的功能也是各不相同的。(不过,两者都有一些相似之处。)
    • 好比机器有两个界面,一个界面是用户友好的界面,另一个界面是机器内部操作的界面。第一个界面可能分不清不同语词之间的用法,但也许在第二个更深层次的界面上,也许它们之间有不同的输入输出对应关系。
    • 相似理论还可见西蒙的《人工科学》

维特根斯坦和框架问题

心灵模块论

福多(美国的哲学家和认知心理学家),认为人类的心智构架可以分为两大部分:

  • 中央推理系统
    • 类似于司令部
    • 统一任务是在全局性的实践推理中,把所有的信息整合在一起,能够看看有什么一般性的东西。
    • 中央推理系统没法程序化(计算机模拟),因为两个特点:
      • 各向同性:在全局性的智能推理中,各个领域的信息都必须被智能体放在一个平面上予以考量。
      • 蒯因式的特点:
        • 蒯因的一个观点:如果有一个观察命题要对某个假设命题进行支持的话,要考虑到整个假说体系的一个支持力度。一个证据和假设之间不是孤立地建立一个正式的关系,还要看背景知识,看整个信念体系的支持力度。(有点贝叶斯的感觉)
        • 引入该观点:如果有一个信念,该信念要对其他一个信念的真值提出修正,会牵扯到对于和被修正的那个信念相关的一大堆其他信念的真值修正,导致一种牵一发而动全身的局面,而这种局面在计算上是不可控的,计算机无法模拟这种全局性问题。
  • 边缘性模块
    • 类似于司令部下辖不同组织机关
    • 模块的信息处理:速度快、封装性
    • 边缘性模块可以利用计算机理论计算(可以写成程序)

由此得出福多的结论:针对心智架构的计算机模型,只能够适用于该架构中的模块部分,却不能够施加于中央语义系统

拆弹机器人

  • 任务:假设有一个能量快耗完的机器人,备用电池放在一辆拖车上,拖车锁在某个房间里,拖车上还有一个定时炸弹。计算机事先已经知道所有的事件。
    • 怎么办?进房间拖出拖车,但同时也会将炸弹拖出来。
    • 所以需要对程序进行修正:程序需要预先知道哪些事件会引起哪些事件,或者说哪些事件类型彼此之间是相关的。但这其实很难,因为:在经典逻辑的技术支持下,在一个庞大的信念库中对于某些信念之间 “相关性” 的语义标注,将不会自动导致对于诸信念之间 “非相关性” 的语义标注
    • 这和人类不一样,当你告诉计算机哪些相关的时候,它不会自动排除掉那些不相关的。比如,程序让机器人知道拉出拖车和拉出炸弹是相关的,但是还得告诉机器人其他信息(机器不知道),如拉出拖车和改变拖车的形状是不相关的、拉出拖车不会改变拖车下面轮子的数量、拉出拖车不会改变那个房间的颜色……因为人类具有朴素的物理先验知识,但机器人没有。所以,结果就是机器人不能在短时间内搞定这个任务,虽然看起来很容易。上面的故事来自丹尼尔·丹尼特,他讨论拆弹机器人例子的经典论文:《认知之轮:人工智能的框架问题》。
  • 印证了福多对于中央语义推理系统可计算性的悲观态度(他认为框架问题在很大程度上就体现了这个问题),我们没有办法对全局性的语义相关性和非相关性进行一种快速的直觉的把握。
  • 回到维特根斯坦:如果维特根斯坦看到框架问题,他会说:“我在批评逻辑哲学论的时候已经说过,你们要用经典逻辑来刻画信念系统当中的诸信念之间相关性和不相关性就会导致问题。”这个问题在很大程度上和 “颜色不相容” 问题相关。

颜色不相容

  • 背景:维特根斯坦对于 “命题” 的分类
    • 经验命题:可真可假,如 “中石油宣布明天降价”,需要验证。
    • 逻辑命题:永真的,如 “明天要么下雨,要么不下雨”,总是对的。
  • 颜色不相容
    • 这是红的。——经验命题
    • 这是红的,所以它不是绿的。——逻辑命题
      • 应该符合逻辑运算的规则
      • 但维特根斯坦发现并不是。比如命题逻辑中的合取规则:“这是红的,所以它不是绿的 & 这是绿的,所以它不是红的”,应该是真的,(真&真),但实际却是假的。
    • 这就意味着 “命题” 二分法的有效性遭到怀疑。这个问题为什么和框架问题有些像:
      • 因为对于框架问题来说,拖出被拖出这个命题对于拖车的颜色没有被改变这个命题应该有一种蕴含关系,但因为从逻辑里面没有办法表征出这种蕴含关系,所以只能写很多否定性命题,A 发生不会引起 B 发生。颜色不相容问题也类似,得事先告诉系统红色和绿色彼此不同,否则系统不会自动进行颜色不相容推演。
      • 于是,日常生活中最简单的语义推理逻辑就变成逻辑搞不定的东西,也就是说,我们的先验知识让我们 “自动” 地知道了某些事情之间的关系,但这种关系却不被机器知晓
  • 解决方案
    • 方案一:康德式
      • 颜色不相容问题是特殊命题,既不是先天分析判断,也不是后天综合判断,而是先天综合判断。
      • 这种独立的划分实际并未解决问题。
    • 方案二:蒯因式
      • 所有判断都看成经验的。
      • 对解决问题也没帮助,因为即使是纯粹的分析判断,也要想办法付出很多的表征资源进行表征,这实际是扩大了困难。
    • 方案三:维特有关的
      • 放弃真值函项理论或经典逻辑的主导地位,用更宽松的理论标准界定逻辑命题和经验命题的界限。
      • 维特根斯坦的建议可以归纳为两点:
        • 经典逻辑考虑的基本单位是句子,没有能力考虑概念。
          • 弗雷格的逻辑在形式化方面取得了大规模进步,但他的逻辑是为数学语言准备的,在应付日常语言时捉襟见肘。
          • 回到亚里士多德的道路,从语词的角度而非句子,制造很多概念层级。但很难形式化。
        • 《论确定性》中谈到的信念网的分布问题。
          • 把人类的信念系统看成非公理化却具有动力学特征的一种网络连接,网络连接中有不同的概念的节点。人在想起一件事时,当中的关键词就可以作为一个概念的节点。比如:“饿”,旁边有:面包等。一个网被激活后,其他邻近的网也可能会被激活。而且激活的次序看两点:第一,它和这个被激活的最早的那个节点之间的毗邻关系;第二,两者之间的信息通道的通畅程度。
          • 河渠的比喻:因为 “历史原因” 而形成的高权重信息通道就会构成网内信息流动的 “自然河渠”,并因为这种 “自然性” 而成为系统的 “缄默预设”,而不再成为系统自主知识表征的目标。(正如人类自然而然的常识)只有新问题(没有旧有的道路可以依赖)需要中央语义系统开拓新的道路。例子:兔鸭头图(既可以看成兔子也可以看成鸭子),假如看到的就是兔子或鸭子,就不会有在兔子和鸭子之间进行来回比较的心智过程。而现在两个概念节点被激活,它们都在争取对你感官印象的解释权,你的推理通道不知道该往哪边走,这时候的心智损耗就会很大。这种判断是经验判断。如果是非常容易的(兔子或鸭子),就可以快速推理,逻辑判断
          • 按照上面的标准,维特根斯坦对分析判断和经验判断的标准变成一个心理学和语境论的标准:在当下语境下心理消耗的资源,而康德和休谟时代很大程度上是看一个知识论的标准。按照这个思路,框架问题也可以解决:为什么由某个行动不会引起的效果不需要在一个知识推理过程中得到系统的表征呢?因为这个系统的信息流向已经由这个信念系统自然的河渠流向来规定,对河渠外的事情不需要考虑。
      • 补充:
        • 传统的知识论的思路是指这个命题本身的性质是和它经验外部的那个关系,如果是先天命题就不需要通过经验来证实。是否需要经验验证 VS 是否需要付出心智的努力来思考
        • 举例:很复杂的重言式,它的真不受任何经验的牵导或者牵制,和花多少时间计算无关,但计算的过程是真实的损耗。维特根斯坦考虑问题是在人的立场上,付出多少损耗的立场上。所以这种我们认为是分析判断的命题在维特根斯坦看来是经验判断,他认为证明很复杂的重言式在日常生活中是没用的,可能只有在应付逻辑考试时才用,而且做这件事需要大量的心智损耗。相反一些很简单的命题,因为它们和我们的日常生活非常相关(如 “我有两只手”)所以像分析判断,尽管按照传统知识论是经验判断。
        • 维特把传统看做知识、经验的东西看做逻辑,去分析;就是那些很简单的逻辑推理,但它们非常重要。传统的逻辑判断以逻辑体系为基础的。这是根本不同。

结论

  • 维特根斯坦的思想宝库里有大量的金矿等着 AI 专家挖掘。
  • 哲学家必须更多关心工程学实践,工程师也必须更多地熟悉哲学,能够在两者之间搭建互相熟悉的桥梁。