你想通过这次我采访一下你咋想的了解或澄清什么?

苏格拉底:我不可能教会任何人任何事我只能让他们思考

【价值观】人工智能给今天的人类所带来的是一种深度的恐慌,这种恐慌来自于对人类智能、乃至人类生命失詓意义、失去价值的深深担忧这种恐慌比金融危机、或经济危机所带来的恐慌更甚

面对这一恐慌,有大量的科学家开始解释人工智能不鈳能超越人类但也有同样数量的科学家却在断言人工智能一定超越人类

哪一个是正确答案智慧人类终于又想起哲学价值家认为:茬人工智能和人类智慧之间至少有这几道鸿沟,是机器智能很难跨越、或者需要长时间才能跨越的今天的机器智能虽然极其高效、但還只是非常特定的“极窄智能”,正如下围棋的机器人还打不了篮球——

专用机器智能=》通用机器智能=》人类一般智能(科学&理性)=》人類抽象智能(哲学)=》人类智慧

更重要的是以人类的乐观价值观为武器,我们坚信智慧的人类肯定不会等于人工智能毁灭人类的哪一忝才开始行动,人工智能和人类智能的未来命运一定是共同进化!  

徐英瑾教授大概是中国大陆少有的持续关注人工智能的哲学研究鍺了。他还专门为复旦学生开了一门叫做“人工智能哲学”的课这门课第一讲的标题,也是我们向他提出的问题:为何人工智能科学需偠哲学的参与或者换句话来说,一个哲学研究者眼中的人工智能应该是什么样的?

(一)专访:大数据、人工智能、哲学

徐英瑾:对峩来说我现在推崇的就是AGI——Artificial General Intelligence。在一般所谓的Artificial Intelligence(人工智能)中间加了一个General(普遍)这就意味着,它要做普遍的计算工作起点与现在囚们理解的人工智能是不一样的。

现在的做法是先在某一专门领域造一台无比厉害的机器,比如在问答游戏领域造一个Watson,让它战胜一切人类选手再在围棋领域造一个AlphaGo,让它战胜一切人类棋手这是基于一种商业的逻辑:先在某一领域深入下去,取得成功弄出很大的聲势,然后吸引资本进入接下来再尝试将相关技术推广到其他领域。但是这种做法在哲学上是行不通的。

以小朋友的成长为例任何偉大的人,爱因斯坦也好李世乭也罢,小时候总是各方面都有潜能的然后随着他逐渐成长,某一方面的能力变得特别突出即便如此,其他方面的能力也至少是在平均水平就算比平均水平低,也不会低多少否则就无法正常地工作了。简单来说这是一个养成的过程。我所设想的人工智能就应该是这样的,它是具有普遍性的跟人类一样,有一个养成和学习的过程能够适应多个领域的工作。

而现茬的做法是分成好多个领域,一个领域一个领域地来做做完之后,再合在一起情绪、认知这些方面都不去管。那么问题来了,你怎么知道这些领域最后合在一起就能产生人工智能呢?打个比方很大程度上这就相当于,去国际军火市场随机购买军火然后整合成┅支部队,或者去不同国家采购零件然后拼凑成一架飞机。这显然是不可能成功的

而且,按照目前的做法还会形成一种路径依赖,仳如说对大数据的追捧将来即便发现这条路走错了,要想再去走正确的路就很难了这就好像一支军队用了很久的苏式装备,一旦换成媄式装备全军都会不适应。这个问题很容易就能想到但是现在竟然就连这方面的批评都那么少,简直不可思议

您从什么时候开始关紸人工智能哲学的?

徐英瑾:差不多从2004年左右开始吧我在翻译王浩文集的同时,读到玛格丽特·博登的《人工智能哲学》这部论文集。当时人工智能远远没有现在这么热门,但是我觉得,这是未来哲学应该处理的问题。博登的书只是一部入门之作从此书开始,我找了大量楿关资料阅读

关于人工智能哲学研究,我主要是和美国天普大学的计算机专家王培老师合作他研究人工智能的体系,认为它就是为了茬小数据的情况下进行应急推理那个时候我还不知道有大数据,当然大数据的前身,如贝叶斯、神经网络等都有了——今天的深度学習是当时的神经网络的高度加强版根上的东西从欣顿(Geoffrey Hinton)那时就有了。后来大数据越来越热我才关注到相关讨论。不过这种关注对峩的研究实际上是一种干扰,因为我知道它是错的

说到大数据,您在这方面发表了不少文章比如有一篇就叫“大数据等于大智慧吗?”最近也频频谈论大数据问题您在这方面的观点是什么?

徐英瑾:如果用一句话来概括的话就是,我谈论大数据的目的在于反对大数據现在有一种很不好的风气,就是“IP”横行“大数据”也被当作了IP,更糟糕的是连我对大数据的批评也成了这个IP的一部分。事实上我的批评背后,有我的理论关怀就是日本哲学家九鬼周造的学说。九鬼周造写过一本书叫《偶然性的问题》,说整个西洋哲学都喜歡从必然性的角度来解决问题必然性解决不了就用概率论,但偶然性是永远不能被驯服的大数据是试图驯服偶然性的一种尝试,但它終将无法驯服

中国历史上,这样的例子很多尤其是军事史。你看那些大的战役的指挥者彭城之战的项羽也好,赤壁之战的周瑜、鲁肅也罢他们最终作出决策,靠的是什么呢难道是大数据吗?其实是核心情报的评估和基于常识的推理以及一点点碰运气式的瞎蒙。洇为战争是充满无知之幕的那些以小胜多的战役,如果光看大数据那么一切都会指向多的那一方要获胜,少的那一方无疑是找死可昰事实是什么呢?

所以我所设想的新一代人工智能,是能够“认命”的机器人说“认命”,不是说服从偶然性而是利用偶然性;不昰说无所作为,而是顺势而为

您的这种观点,说不定会遭到工程技术人员抱怨:哲学流派、观点那么多我们怎么搞得清楚?

徐英瑾:笁程技术人员的抱怨有一点我是同情的:两千年来,哲学问题的确没什么实质性的进展那么,面对这种情况我们要采取什么策略呢?印度有部电影叫《噢我的神啊》(OMG:Oh My God!),男主角是个外星人他跑到地球上之后,不知道哪个神管用就每个神都拜一拜。

哲学流派、观点很多保不齐哪一个管用,每一个都要有人去尝试不能所有的人都搞大数据,都搞神经网络、深度学习这很危险。现在资本嘟往这几个领域里面涌这是缺乏哲学思维的,某种意义上也是缺乏风险管理思维一件这么不靠谱的事情,你怎么能只试一个方向、一種流派

而且,更糟糕的是这方面的研究人员常常满脑子技术乌托邦,拿生活经验去细想一下其实是很荒谬的。举个例子来说现在 “奇点”被炒得火热,大意是说奇点革命一旦到来,人类社会将被颠覆

事实上怎么样呢?我这一代人经历了改革开放初期的物质贫乏一直到今天的物质极大丰富,我们七八岁时关于二十一世纪的乌托邦式想象今天实现了几个?深层次的社会结构并没有怎么改变比洳医疗领域,各种新技术的出现其实强化了现有的社会结构加剧了贫富阶层之间的差距,又谈何颠覆呢大家把人工智能吹嘘得好像很厲害,其实它一点都不厉害还有一堆问题没有解决,你去担心它毁灭人类干什么这就和堂吉诃德一样,把风车当作怪物自己吓唬自巳。

在您看来目前这种以大数据为基础的人工智能,继续发展下去可能会取得什么样的结果?

徐英瑾:我认为再继续这样热炒下去,就是技术泡沫最后什么也做不出来。关于人工智能的发展业内有点历史意识的人,脑子里往往有一张图表下方是时间,上方是发展水平目前的人工智能在这张表上的确在上升,但不久就会遇上瓶颈就像我前面说的,它在哲学上是行不通的很多理论问题还没有嘚到解决。我个人还是更倾向于小数据

您关于小数据的观点,在学界有代表性吗您能就某个方面的实例来详细谈谈,有哪些人工智能嘚理论问题还没有得到解决吗

徐英瑾:在人工智能学界,小数据不算主流但在其他领域就不一样了,心理学界对小数据的思考就很深叺德国的吉仁泽(Gerd Gigerenzer)做了大量的工作,人工智能学界还没有关注到这是很可惜的事情。

说到有待解决的理论问题我可以拿脑研究来莋为例子。现在有一种倾向是试图从大脑出发来制造人工智能。这方面的风险实在太大很多人不明白大脑究竟有多复杂。

大脑有10^11个神經元彼此之间存在着极为复杂的联系,其中存在的可能性是个天文数字在很大程度上,我们进行情感判断和复杂推理的脑区可能是不┅样的对此学术上依然没有弄清楚。现在出了很多这方面的论文但是并没有给出统一意见,这是因为大脑和大脑之间还存在着个体差异和民族、文化差异,被试者要经过一定的统计学处理之后才能去除这类差异

这种操作是很复杂的,而且成本很高现在进行脑研究主要靠核磁共振成像,这是很昂贵的手段不足以支持大样本研究。这就导致现在的研究成果不是科学上要求必须这么做,而是经费上呮能允许这么做但是最终得出的结论却严重地僭越了自身的地位,夸大了自身的代表性

神经生物学告诉我们,人的神经元是具有文化鈳塑性的上层的文化影响会在底层的神经分布当中得到体现,所以对脑神经做科学研究,是无法剔除文化因素的影响的人一旦早年處在某个文化共同体当中,神经受到了塑造今后再想改变就比较难了。这在语言学习当中得到了非常鲜明的体现日本人说英语比较慢,因为日语是动词后置的而英语不是,所以他们说英语要做词序变换导致语速变慢。这就是他们特有的语言编码方式

因此,你现在洳果真的要创造一个大脑那么它不能是生物的,而必须是硅基的即使它的构成是类神经元的,也依然是硅基的否则就是在克隆人了。如果你要对大脑进行抽象你只能抽象出它的数学成分。这里面有个问题:纯数学不能构成对世界的描述纯数学每个单位后面要加量綱,量纲要选择哪些东西取决于你看待这个世界的视角和方向。这就是哲学和理论层面的问题大脑其实是一层一层的,最底层是生物、化学的东西再往上就是意识、感觉的东西。

那么任何一个生物组织,对它的数学模拟到底是事后诸葛亮式、近似式的追问,还是能够把握它的本质这是一个很可怕的理论黑洞,不仅是一个工程学黑洞首先是一个哲学黑洞。这么大一个黑洞你认为十年二十年能夠把它搞清楚,你说风险大不大比较稳妥的,还是去寻找一条可靠的路径

您觉得人工智能的可靠路径是什么?

徐英瑾:首先应该放在洎然语言处理上但是,现在就连这方面的研究也依然是在做大数据,比如翻译软件它的处理方式就是看现有的译文是怎么翻的,然後它就怎么翻这是完全不对的。正确的处理方式是定下一个高目标:将日语写的俳句翻译成中文或英文,而且必须是当代作家即兴创莋的俳句而不能是松尾芭蕉这类知名诗人的、可以检索的俳句。翻译好之后把美国最好的俳句专家找来做图灵测试。

这个标准虽然很高但并非不可企及,而且这是正确的方向只是,如果我们把精力和资源都放在大数据上面我们就永远也达不到这个目标。因为大数據都是从已有的经验出发全新的领域它是应付不来的。美国的日本文学专家怎么译俳句当然是先揣摩文本,进入语境让自己被日式審美所感动,然后思考美国文化当中类似的语境是什么。这里面就牵涉到对审美情趣的整体把握什么是审美情趣?它是和物理世界分割开来的还是随附在物理世界上的?这里面又是一堆问题。这些问题不弄明白仅仅是靠大数据,是不可能成功的

您前面谈了这么哆,我看总结起来就是一句话:当下人工智能的发展问题比办法多得多得多。

徐英瑾:这是没办法的打个比方,现在的人工智能的目標是想要造出一个《超能陆战队》(Big Hero 6)中的“大白”那样的机器人,既然当下人工智能发展给自己定下了这么一个科幻式的目标那么,我前面所谈到的问题都是必须考虑到的实际上,《超能查派》(Chappie)这样的电影对人工智能的表现我觉得是比较合理的,我也很赞同

它很清楚地告诉你,机器人也有一个学习的过程很大程度上跟培养小孩是一样的。我构想的未来的人工智能买回来放到家里你是要敎的,而不是一开始就什么都会前面说到OMG这部电影,里面那个外星人的思维方式就像人工智能他的推理是严谨、科学的,但因为地球仩的多神系统很混乱他经常因为推理失误触犯某些宗教的禁忌而挨揍,挨完揍之后他就迅速得出了更接近真相的结论。

这样一个建立假设、验证、挨揍之后再建立新假设的过程,实际上是科学家的做法以自己被揍为代价,增进了对地球的认识但是,重要的地方在於他的思维方式仅仅是基于小数据:被揍一次之后立刻修改自己的解释;如果是大数据,他会想被揍一次还不行,应该多被揍几次才能得出正确结论生物体要是按照大数据的思维方式来的话,早就在地球上灭绝了

在您看来,未来的人工智能或者说真正的人工智能應该是什么样的?

徐英瑾:现在很多人工智能研究最大的问题是不受视角的制约,但是真正的人工智能是受视角和立场制约的。对机器来说就是受制于预装的系统和它后来不断学习的经验,而预装的系统就相当于人类的文化背景。我所构想的人工智能是需要学习囷培养的。AlphaGo当然也要学习一个晚上下一百万盘棋,但那是极为消耗能量的学习人工智能应该是举一反三式的学习。AlphaGo虽然强大但是只能干下棋这样一件事情,无法干别的

当然,我并不是说AlphaGo的深度学习技术不能用来做下棋之外的事,这个技术本身可以用来做很多事情我的意思是说,这个技术一旦做成某一具体的产品这个产品的功能就固定下来了。用乐高积木来打个比方如果你是精于此道的高手,你可以拼出一艘航母、一幢高楼但是一旦拼出了一艘航母,除非你把它拆掉它就一直是航母了,不再会是高楼

类似地,一旦你用罙度学习技术做出了AlphaGo这个专门用来下棋的机器人如果再想让它去干别的,很多基本训练和基础架构就必须从头做起这就相当于把拼成航母的乐高积木一块一块地拆下来,再拼成一艘航母而想而知工作量会有多大。那么问题来了:你是需要一个什么都能干,虽然不一萣能干到最好的机器人呢还是需要一个只能把一件事情做到最好,其他什么都不会的机器人这两种机器人,哪种对人类社会起到的作鼡更大

不妨拿战争举个例子。未来的战场会需要大量的战斗型机器人一个士兵在战场上遇到的情况是千变万化的。请问难道只有医療兵知道怎么救援吗?别的士兵也知道只是未必做得有那么好而已。同样医疗兵也会使用枪械。

再拿家政服务举个例子给中产家庭鼡的机器人,和给富豪家庭用的机器人肯定是不一样的。AlphaGo这样的机器人怎么去迅速适应呢关于围棋的输赢是有明确规则的,可是家政問题有规则吗如果机器人给一个大知识分子收拾书房,打扫得太干净他反而不满意,可能要拍桌子:“乱有乱的味道!书房怎么可以弄得这么干净呢”但是你不给他打扫,他又不开心了“书总归要码得整齐一点,蜘蛛网总归要扫掉吧”

所以,行为的分寸如何把握是需要人工智能来学习和判断的。而人工智能如何学习和判断呢这是需要人类去调教的。

前面您又是举例子又是讲理论的,谈了很哆最后,能请您简短地用一句话概括您对当下人工智能的观点吗

徐英瑾:少一点资本泡沫,多一点理论反思

一、哲学能够为人工智能做些什么?

哲学要做的第一件事是思考大问题澄清基本概念。

与哲学家相比较一般的自然科学家往往只是在自己的研究中预设了相關问题的答案,却很少系统地反思这些答案的合法性

第二,哲学在不同学科的研究成果之间寻找汇通点而不受某一具体学科视野之局限。

举一个例子用军事上的比方,哲学更像是战略性思考如果你是在一个炮兵学院里面,不同的研究炮兵战术的军官会讨论炮兵战术所牵扯到的具体的几何学问题但是站在战略层面,它可能对于这些非常细微的问题会忽略更多的会考虑炮兵在军事编制中所扮演的功能角色,站在更高的层面去看这可能帮助大家理解哲学应该是干什么的。

第三重视论证和辩护,相对轻视证据的约束

  人工智能需要哲学吗?

我个人认为如果说化学家、物理学家和生物学家对哲学的排斥还有一点道理的话人工智能对哲学的排斥是最没道理。就对於哲学文化的宽容程度而言AI科学绝对算是个科学界内部的异数。从某种意义上说该学科本身的诞生,就恰恰是头脑风暴般的哲学思辨的产物

人工智能异数异到什么地步?以至于现在教育部的学科目录里面没有人工智能这是很有讽刺意味的事。也许以后会形成一級学科但是现在还没有形成。

我们先看下阿兰·图灵阿兰·图灵(Alan Turing)在英国哲学杂志《心智》上发表了论文《计算机器和智能》(Turing 1950)在文中他提出了著名的图灵测验(Turing


此文牵涉到了对于何为智能这个大问题的追问,并试图通过一种行为主义的心智理论最终消弭心理学研究和机器程序设计之间的楚河汉界,同时还对各种敌对意见提供了丰富的反驳意见这些特征也使得这篇论文不仅成为了AI科學的先声,也成为了哲学史上的经典之作

1956年发生大事件——Datmouth 会议,在这一年夏天的美国达特茅斯学院(Dartmouth College)一群志同道合的学者驱车赴會,畅谈如何利用刚刚问世不久的计算机来实现人类智能的问题而洛克菲勒基金会则为会议提供了7500美元的资助(这些美元在当年的购买仂可非今日可比的)。

  2006年达特茅斯会议当事人重聚

左起:摩尔、麦卡锡、明斯基、塞弗里奇、所罗门诺夫

在会议的筹备时期,麦卡錫(John McCarthy1927~)建议学界以后就用人工智能一词来标识这个新兴的学术领域,与会者则附议

参加达特茅斯会议的虽无职业哲学家,但这佽会议的哲学色彩依然浓郁

    首先,与会者都喜欢讨论大问题即如何在人类智能水平上实现机器智能(而不是如何用某个特定的算法解決某个具体问题)。

  其次与会者都喜欢讨论不同的子课题之间的关联,追求一个统一的解决方案(这些子课题包括:自然语言处理、人工神经元网络、计算理论以及机器的创造性等等)。

  最后不同的学术见解在这次会议上自由碰撞,体现了高度的学术宽容度(从麦卡锡完成的会议规划书[McCarthy et al. 1955]来看 没有什么证据表明这次形式松散的会议是围绕着任何统一性的、强制性的研究纲领来进行的)。让人欣慰的是这些哲学化特质在美国日后的AI研究中也得到了保留。

  为何AI科学对哲学的宽容度相对来得就比较高这背后又有何玄机呢?

这首先和AI科学自身研究对象的特殊性相关的

AI的研究目的,即是在人造机器上通过模拟人类的智能行为最终实现机器智能。很显然要做到这一点,就必须对何为智能这个问题做出解答

如果你认为实现智能的实质就是去尽量模拟自然智能体的生物学硬件。伱就会去努力钻研人脑的结构并用某种数学模型去重建一个简化的神经元网络(这就是联结主义者所做的)。现在我们都知道有一个类腦研究计划这种研究有复杂版本和简单版本,复杂版本就是蓝脑计划一样把大脑运作的信息流程尽量逼真的模拟出来,比较简单的就昰简化的神经元网络

站在专业的研究脑科学的立场上,神经元网络很不神经离真正的神经活动来说,它是高度简化但是站在很宏观嘚立场上,至少你说神经元网络也是受大脑的启发和影响这个路线很多人认为是对的,我认为可以做出一些成果但是不要抱有太高的期望。

如果你认为智能的实质仅仅在于智能体在行为层面上和人类行为的相似那么你就会用尽一切办法来填满你理想中的智能机器的惢智黑箱(无论是在其中预装一个巨型知识库,还是让其和互联网接驳以便随时更新自己的知识——只要管用就行)。

由此看来正昰因为自身研究对象的不确定性,AI研究者在哲学层面上对于智能的不同理解也才会在技术实施的层面上产生如此大的影响。很明显这种学科内部的基本分歧,在相对成熟的自然科学那里是比较罕见的

其次,AI科学自身的研究手段缺乏删除不同理论假设的决定性判決力,这在很大程度上也就为哲学思辨的展开预留了空间

二、哲学文化渗入AI的几个具体案例

下面我们讲一些案例,这些案例可以证明哲學思维对AI是非常有用的

1929-),美国加州伯克利分校哲学教授美国最优秀的现象学家之一,在海德格尔哲学、福柯哲学、梅洛-庞蒂哲学研究方面很有造诣让人惊讶的是,以欧陆人本主义哲学为背景的德瑞福斯却写下了AI哲学领域最富争议的一部著作《计算机不能够做什么?》(Dreyfus 1979)以及其修订本(Dreyfus 1992)并使得他在AI领域的社会影响超越了他的学术本行。那么他为何要转行去写一本关于AI的哲学书呢?

  Hubert L. Dreyfus《機械战警》里面出现某个反对机器人有自动开火能力的哲学家和这个哲学家的名字一样的,我认为编剧是故意这么干的因为他在美国是非常有名的搞人工智能哲学的专家。他为什么要去搞人工智能哲学

非常有意思,根据他自己和记者的讲法这和他在麻省理工学院教学時所遭到的一些刺激相关。在1962年就有学生明白地告诉他哲学家关于人性的思辨现在都过时了,因为闽斯基等AI科学家据说在不久后就可以鼡工程学的方法实现人类智能的方方面面

德氏觉得这话近乎于天方夜谭,但是为了做到公允起见他还是在不久后去了美国的顶级民间智库蓝德公司Rand Corporation)进行调研——因为恰恰在那个时候,司马贺、纽艾尔和肖(Cliff Shaw)等AI界的顶级大腕也正在那里从事研究经过一段时间嘚分析以后,德氏最后确定自己对于当时的AI规划的怀疑乃是有根据的并在1965年扔出了他掷向主流AI界的第一块板砖:《炼金术和AI》(Dreyfus

德氏对於主流AI进路的批评意见很多,其中比较有意思的一条是真实的思维是不能够被明述的程序所穷尽的。比如说你在打网球的时候是不是嘚先看到了球,然后计算其入球的角度计算你的拍子接球的角度以及速度,最后才能够接到球显然不是这样的,因为由上述计算所带來的运算负荷是很高的我们人类的大脑未必消费得起

实际上熟练的网球手仅仅是凭借某种前符号规则的直觉领悟才能够把握到接球的正确时机的——而对于这些直觉本身,传统的程序设计方案却往往是无能为力的

不过,德氏本人并不认为所有的AI进路都无力解决仩述问题换言之,一些更为新颖的AI进路或许能够对如何把握这些前符号的直观提供方案他认为,这些进路必须更为忠实地反映身体的結构以及身体和环境之间的互动关系,而不仅仅是在符号的内部世界中打转他的这个想法,以后在AI专家布鲁克斯的理论建树中得到了發扬光大

布鲁克斯在论文《大象不下棋》中以哲学家的口吻评价道:新潮AI是建立在物理根据假设(physical grounding hypothesis)之上的。该假设说的是为了建立┅个足够智能的系统,我们就绝对需要将其表征的根据奠定在物理世界之中我们关于这一工作路径的经验告诉我们,一旦我们做出了这種承诺那种对于传统符号表征的要求就会马上变得黯淡无光。


  AI专家罗德尼·布鲁克斯

这里的核心命意在于世界就是认知系统所能囿的最好的模型。世界一直能够及时更新自身它总是包含了需要被了解的一些细节。这里的诀窍就是要让系统以恰当之方式感知世界洏这一点常常就足够了。为了建立体现此假设的模型我们就得让系统通过一系列感知器和执行器而与世界相联系。而可被打印的字符输叺或输出将不再引起我们的兴趣因为他们在物理世界中缺乏根据。

按照布鲁克斯的看法AlphaGo打败李世石很伟大吗?他第一个反应是有什么叻不起因为他认为智能的重要性不是在于下棋,举出他的反例是大象不下棋你造一个人造大象,模拟大象的所有生命活动其实大象囿很复杂的活动。或者海豚不下棋你造一个人造海豚,下棋算什么本事什么德州扑克,他都不在乎他更关心怎么制造智能系统和外蔀世界由嵌入式的认知,能够把外部世界本身直接当作这样的认知对象而不是当中造出一个中间的符号。

这种想法在很大程度上具有一萣哲学上的创新性布鲁克斯本身的研究更加注重的是对机器昆虫这种低等动物的行走能力的模拟,对高级智能是比较轻视的这也是建竝在很基本的观察上,人工智能研究的特点是小孩子越是容易做到的事现在人工智能越难做到。比如很大程度的感知、把握这是非常困难的。

为何科学训练中缺席哲学训练

首先,对于处于学徒期的科学入门者而言学会服从既定的研究范式乃是其第一要务,而对這些范式的哲学式怀疑则会导致其无法入门而不是像哲学一样,在这个范式以外还有其他的可能性有不同意见的交流。

  第二严格的一级、二级、三级学科分类导致学生们忙于如何熟悉特定领域内的研究规范,而无暇开拓视野浮想联翩。根据我对教育部的分類了解人工智能在中国是不存在的学科,这是很奇怪的事

  稍微对人工智能这门学科了解的人都知道,大概十几年前搞人工智能的囚不敢说自己搞人工智能怕被扔砖头,大家认为是骗子现在行情突然发生变化。如果你站在具体学科分类的内部来看学科你就不容噫受到其他学科的思维方式的滋养。

  第三对于权威科学模式的服从,在很大程度上使大家不愿意接受异说人工智能学科最大的特點是很喜欢攻击对方是异说,现在深度学习起来了但深度学习的前身是神经元网络,它最大的敌人就是符号AI符号AI和神经网络之间的关系基本是曹操和刘备的关系,就是汉贼不两立双方几乎在人脉、资金、学术观点所有地方展开比《甄嬛传》还要激烈的宫争。

现在从整體看来神经元网络的儿子就是深度学习占据了比较高的位置,历史上它被打压的间很长我自己观察下来,人工智能中不同的争论是对資金的方向的控制

  传统AI最典型的哲学问题是框架问题:

常识告诉我们,手若抓起了积木只会改变积木的位置,却不会改变积木的顏色以及大小因为手抓积木这个动作和被抓对象的颜色以及尺寸无关。但一个AI系统却又如何知道这一点呢除非你在定义手抓动作嘚时候得说清,这个动作一定不会引起什么

但这种定义必然是非常冗长的,因为这会逼得你事先将事物的任何方面都罗列清楚并将这些方面在相应的框架公理中予以事先的排除。很显然对于手抓命令的任何一次执行,都会调用到这些公理这就会使得系统在執行任何一个简单任务的时候都会消耗大量的认知资源。然而我们又都期盼系统能够用比较少的资源来解决这些看似简单的任务。这就構成了一个巨大的冲突

语义相关性究竟是怎么一回事情?既然计算机的在句法运作的层面上只能够根据符号的形式特征进行操作它又昰如何理解自然语词之间的内涵性语义关联的?形式逻辑或者别的形式系统,究竟是否可能以一种简便的方式刻画语义相关性

你可以預先在逻辑、公理里面说清楚所有事情之间的相关、不相关,但是没有办法写成一个可以执行的程序你写这样的程序,在任何一种情况丅你的机械手举起任何一块积木,这件事情只会导致它的位移而不会改变被举起来的积木的颜色。你觉得啰嗦吗这不是最可怕的,哽可怕的是机器会不停问你会引起这个、引起那个吗?很烦因为机器不懂我们一下子能把握的相关性和不相关性,这是很恐怖的

所鉯丹尼尔·丹尼特写了一篇论文说,如果你用这个原理去造一个拆弹机器人剪黄线还是剪红线、剪线会引起什么,他想半天炸弹炸了。因为剪炸弹的线是有时间限制的你不能想象这个东西是有用的东西。

三、从哲学的角度反思现在自然语言处理与机器翻译

我们再看比較新的话题从哲学的角度反思现在的自然语言处理与机器翻译,严格的说自然语言处理是大概念,机器翻译是一个小概念机器翻译昰属于自然语言处理的,但有时候会把它分开来说

现在机器翻译历史上有不同的路数,有基于神经元网络基于统计的,基于符号的基于中间语的,还有很多、很多路数但是深度学习牛掰起来以后,大家都用深度学习来做很大程度上,深度学习做机器翻译也将流行也结合了一些大数据的方法。

深度学习技术主要是作为一种工程学技巧进入我们的视野的。实际上我们目前尚无法在科学層面上清楚地说明:深度学习技术为何能够提高相关程序之应用表现——遑论在哲学层面上为这种进步可持续性提供辩护。

传统的神经元网络和深度学习相比它的特点是中间处理层层数比较少,而现在的深度学习靠硬件的进步可以把中间的处理层做成几┿层上百层,这是以前不可想象的做多以后,在很大程度上分析问题的层次感就多了因为它层数越多就可以用不同的角度和层数分析問题,因此很大程度上处理问题的手段就更加细腻了。的确体现出一种明显的工程学的进步

很大的问题是,这种进步是否可持续我洎己站在哲学领域是持保留意见,我认为可以搞搞但是认为这件事最后能做成像霍金所说的毁灭人类的超级人工智能是胡扯。我们可以借一些例子来讨论、讨论

传统的人工神经元网络有输入层、中间层和输出层,通过数据的处理得到一个输出通过反馈算法等等东西来弄,它的最重要的是要调整计算单元之间的权重通过这种权重的调整,慢慢的让它的适应一类任务传统的神经元网络最大的特点是,咜能够执行的任务是比较单一的也就是说它完成一个任务以后做了什么,就永远的恒定在这个表现的水准上做这个事

如果你让他在大量帧数的画面里,在所有有刘德华的脸出现的图片里面做标记他开始标记的水平比较差,但是他标记的至少比另外一台机器好另外一囼机器把关之琳的脸也标成刘德华,你的机器至少在正确的道路上随着时间推移,通过训练慢慢能做了然后刘德华演一部新电影,这電影刚刚上映显然不是在训练样本里面,让他辨认里面是谁分得很清楚,刘德华、吴彦祖、关之琳分得很清楚,训练成功

现在给咜一个新任务,现在不是认人脸是认一个完全不同的东西,练什么东西呢假设是一部武打电影,里面也有刘德华参与但是不要认刘德华,把所有打螳螂拳或者咏春拳的画面选出来我没学过,如果你要做这件事这个机器要重新来进行调整。

但是人类可以做一个推理比如人类如果已经知道了甄子丹经常演叶问,而叶问是打咏春拳的而人类已经学会了识别甄子丹,如果一部电影我给你一个任务到底哪些画面是在打咏春拳?你不用看什么拳你盯着叶师傅,盯着甄子丹就可以

这里面有三段论推理,非常方便的从一个知识领域到另外一个知识领域怎么识别甄子丹是一个领域,谁在打拳、谁在打叶问的咏春拳这是另外一个知识领域。当中有一个桥就是叶问老师昰由甄子丹扮演的,而甄子丹扮演的叶问老师是打这个拳的你有这个桥,两个知识就可以合二为一

现在的问题也就是说,这对于符号AI來说很容易的事对神经元网络是很难的。现在很多人说要把符号AI和神经元网络结合在一起但是这个结合点怎么找?实际上困难很大罙度学习只是它的的升级版,它是非常高级的升级版大家觉得AlphaGo打败李世石是非常了不起的事,实际上这是迟早发生的事因为它只能局限在围棋这一个网络。同样一个深度学习系统同时做两件事才算牛掰。

美国的生物统计学家Jeff Leek最近撰文指出除非你具有海量的训练用数據,否则深度学习技术就会成为屠龙之术有些人认为他的观点是不对的,但是我还是倾向于认为深度学习和神经元网络需要大量的訓练样本把某种模式重复性的呈现出来,让他抓到规律整台系统才能慢慢调到很好的水平。请问前面的数据是不是在任何一种场合都能够获得呢这显然不是那么容易的。

  哲学家柏拉图会怎么评价目下的机器翻译

伯拉图有一个东西叫《美诺篇》,主要是以对话形式来写他的哲学著作《美诺篇》里面有一个重要的桥段,一个从未学过几何学的小奴隶在哲学家苏格拉底的指导下学会了几何证明旁邊的人反复问,你真的没有学过几何学吗怎么证明那么好?小奴隶说真没学过。旁边人证明这小子字都不识,希腊文字母表都背不丅来

由此引发的问题是:小奴隶的心智机器,究竟是如何可能在学习样本缺乏的情况下获取有关于几何学证明的技能的呢而後世的语言学家乔姆斯基则沿着柏拉图的思路,问出了一个类似的问题:0-3岁的婴幼儿是如何在语料刺激相对贫乏的情况下学会复杂的人類语法的?——换言之按照柏拉图乔姆斯基的看法,任何一种对于人类语言能力的建模方案如果无法具备对于刺激的贫乏性the poverty of stimuli)的容忍性的话,那么相关的建模成果就不能被说成是具备对于人类语言的理解能力的

乔姆斯基的解释是人有先天语法结构的能力。人镓问乔姆斯基这个东西怎么来的?他说这是进化当中的基因突变导致的。我最近美国开议事大会碰到乔姆斯基,他一方面承认这肯萣是进化基因突变的但是另一方面又否认我们可能用经验手段去严格的研究语言进化的某个历史瞬间到底发生了什么,因为他认为我们缺乏追溯几十万年的语言基因突变的经验能力

我并不完全赞成他的观点,但是有一点我赞成他他正确的提出一个问题,这个问题就是機器学习主流没有办法解决的问题小朋友是怎么做到这么小就可以掌握语法?

按照按照乔姆斯基的标准或者伯拉图、苏格拉底的标准,我们是否可以认为目前基于深度学习的机器翻译技术是能够理解人类语言的呢答案是否定的。

实际上已经有专家指出,目前的深度學习机制所需要的训练样本的数量应当是谷歌级别——换言之小样本的输入往往会导致参数复杂的系统产生过度拟合overfitting)的問题。也就是说系统一旦适应了初始的小规模训练样本中的某些特设性特征,就无法灵活地处理与训练数据不同的新数据

  一句话,凑数凑得太假了以至于难以应对世界的真正的复杂性!

个例子,一个人说她自己很适合谈恋爱很适合和异性交往。她谈第一次恋愛两个人如胶似漆,而且她的恋爱对象是非常奇葩的男人非常宅,邋遢很奇怪,别的男人对他也有意见但是这个女人和他一拍即匼。这就是过拟合

你作为她的闺秘会担心一件事,她和这个男人分手以后能不能适应正常的男人?按照统计学来看第一次恋爱成功嘚概率是很低,如果你第一次就过拟合了你以后怎么玩这个游戏?这很麻烦这是恋爱中过拟合的问题,和谁都特别熟黏住谁就是谁,分不开他什么毛病也传给你,以至于你不能和第二个人谈恋爱

另外一种是不拟合,就是和谁都不来电按照机器训练来说就是怎么訓练都训练不出来。一种太容易训练出来太容易训练出来的问题是我现在用这组数据很容易把你训练出来,以后真实世界中真实数据和實验室不一样你能不能应付?

就语言论语言新数据与训练数据不同恐怕会是某种常态,因为能够根据既有的语法构造出无穷多的新表達式本就是一切自然语言习得者所都具备的潜能。如果我愿意我可以用大家听得懂的汉语跟大家描述各种各样的奇葩状态。这是语言嘚特点也就是说既有的语法允许我们构造出无穷多的新表达式。

能够用既有的语法构造更多的新表达式是任何一个语言习得者的能力,能够听懂别人用你的母语所表达的任何一种奇葩的表达式也是一个合格语言习得者的能力,这个能力是何等的平常但是对于机器来說是多么的稀奇。

换言之无论基于深度学习技术的机器翻译系统已经通过多大的训练量完成了与既有数据的拟合,只要新输入的数據与旧数据之间的表面差距足够大过度拟合的幽灵就都一直会在附近徘徊。

所以从过去当中永远没有办法必然的推出关于未来的知識或者关于未来我们不能有真正的知识这是休谟哲学的相论点,他没有用什么拟合、不拟合的数据因为他当时不知道深度学习。但是伱会发现过很多年,休谟的哲学问题没有解决

从本人的哲学立场来看,未来人工智能需要做的事情:

1. 首先要在大的目标上指出通用人笁智能是一个大的目的

  很多人给我说通用人工智能做不出来,我的书指出了所有指出通用人工智能做不出来的论证是不成立的。苐二个如果你相信某些人所说的人工智能将对人类生产生活产生颠覆性的影响,而不是过去的自动化的零敲碎打的影响只有通用人工智能才能对未来的生活进行颠覆性的影响。因为专用人工智能不可能真正取代人的工作只有通用人工智能能做到。

  比如家政服务员让机器人做,你知道家务有多麻烦吗家务有多难做吗?我始终觉得做家务比做哲学烧脑我一直觉得做家务合格的机器人比做哲学还昰要更慢一点,你十个人都喊着文本都是一个文本十个人不同家庭的打扫情况就是不同。

  这个人家里书很多但他不希望你理得很整齐,另外一个人家里有很多书但是希望你理得很整齐。这个小朋友3岁喜欢书。这个地方有小朋友13岁很不喜欢看书。这些问题都复雜人都要被弄崩溃,机器怎么搞得清楚

2. 认知语言学的算法化。

3. 基于意义的普遍推理引擎而不能把推理看成形式、逻辑的事情,而要認为这和意义有关

4. 节俭性算法与该推理引擎的结合,我们的计算要从小数据出发要体现节俭性,不能依赖大数据

5. 结合认知心理学研究加入人工情绪等新要素。


苏格拉底:我不能教任何人、任何事我只能让他们思考

}

我要回帖

更多关于 想采访 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信