人形军用机器人会不会成为现实!美国现实主义作家已经在大量装备。未来战争会不会不要人?

最先进人形机器人在美亮相 “不死铁汉”将上战场
日 10:54来源:
今年7月,一款号称“世界最先进人形”“阿特拉斯”在美国亮相,1.9米高的它就像个不死的铁汉,能直立行走、能对付复杂地形、能抗击外力冲击。这款由美国武器合约商波士顿动力公司为美军研制人形机器人的出现,再次激发了人类对于机器人的热情和想象。《机械公敌》、《终结者》这些电影里机器人“逆袭”和人类站在同一战场对决的情节也因为“阿特拉斯”的真身而复活。除了热情,公众对机器人还有一种由来已久的莫名恐惧。美国媒体报道,根据美国国会规定到2015年前,三分之一的地面战斗将使用机器人士兵。而美国《未来学家》预测,到2020年战场上的机器人数量将超过士兵的数量。未来的战场上肉体是否将最终完全退出,交由这些不会饥饿不会痛苦的战士去拼杀?这些被设计出来的机器是否可能有一天“反咬”人类一口?而无人化战争到底是减少了人的伤害,还是降低了战争门槛带来更多的死亡?“最先进的人形机器”来了!以希腊神话里力大无穷、可双肩支撑苍天的擎天神阿特拉斯命名,机器人“阿特拉斯”确实比以往亮相的机器人带来更多惊喜“阿特拉斯”身高1.9米、体重150千克——重量几乎是人体的两倍,身躯由头部、躯干和四肢组成,“双眼”由两个立体感应器构成。“阿特拉斯”和人类的行走方式一样,除了能够直立行走,还能单腿站立。从波士顿动力公司发布的最新视频来看,“阿特拉斯”攻克了机器人在复杂地形上实施遥控穿越的技术难题。“阿特拉斯”能够在传送带上大步前进,躲开传送带上突然出现的木板;还能从高处跳下稳稳落地,两腿分开从陷阱两边走过,然后跑上楼梯;而当侧面的大球撞来时,“阿特拉斯”岿然不倒。“阿特拉斯”的表现,让公众对它应付战场上复杂情况的能力有了信心。美国国防部高级研究项目局项目经理吉尔·普拉特说,该机构希望“阿特拉斯”在灾难的恶劣环境中也能行动自如,比如能开门、爬楼梯和移动等,也希望它能使用从螺丝刀到救火车之类的工具。目前,关于“阿特拉斯”的用途并没有明确的官方表态。有专家猜测,“阿特拉斯”或将在用于危险环境下进行救援工作,或是用在后勤补给和维修保养作业等领域。为了更好地开发“阿特拉斯”的能力,美国国防部高级研究项目局资助举办了一个为其开发应用软件的挑战赛,今年已有美国航天局喷气推进实验室等机构的7支队伍脱颖而出,并于明年12月进行决赛,其中在模拟场景中用机器人救援表现最棒的队伍将获得200万大奖。潘多拉的盒子打开了吗?人类士兵有像《日内瓦公约》这样的司法条约来指引,不会饥饿、不会伤心的机器人有什么样的新的伦理准则和指导原则进行约束,确保这些钢铁战士不会滥杀无辜正因为这样的疑问没有得到有效的解答,关于军事机器人伦理的大讨论从未停止,而“阿特拉斯”的出现,更再次提醒了公众,也许“潘多拉盒子”即将或者已经被打开。一直以来,公众为阻止这个“盒子”被打开作了不少努力。1940年,科幻作家阿西莫夫就提出“机器人三原则”——机器人不得伤害人类;机器人必须服从人类的命令,除非这条命令与第一条相矛盾;机器人必须保护自己,除非这种保护与以上两条相矛盾。然而,不少专家担心这三原则正在被破坏。英国专家乔迪·威廉斯就指出,人类已拥有制造自动杀人机器人的能力,这种技术破坏了绝对不应被越过的道德和伦理界线。而谢菲尔德大学人工智能教授诺埃尔·夏基之前在接受媒体采访时也提到武器的自动化已经在一定程度上实现,即便是具有人工智能的机器人,也会缺乏人类所拥有的一种微妙的判断和拿捏能力——如何在获得军事优势的前提下最大限度地避免平民伤亡。然而,他们的担忧都建立在一种假设上——假设军事机器人已经从现在的半自动状态实现了全自动。虽然“阿特拉斯”被誉为有史以来最先进的人形机器人之一,但是“阿特拉斯”本质仍是一个须输入软件的躯壳,有后端遥控,并未实现完全的人工智能。“目前机器人仅仅能够自主识别,但是远远未达到自主思考的水平。”机器人与工作自动化实验室的王卫军博士告诉记者,机器人的自主识别能力也主要停留在比较基础的状态。“现在的机器人主要是通过人工设置程序,建立一个数据库,比如建立一个危险情况的数据库,机器人在遇到对方作出危险举动的时候,可以采取反应。”但是也坦言,机器人这样的能力并不足以应对战场上复杂的情况。王卫军也坦言,“阿特拉斯”的出现,意味着,机器人的人工智能对美国来说,已经不存在技术壁垒,更关键的是美国对军事机器人的人工智能研究到什么程度。“但是目前研究进度的真实情况我们外界是很难获知的。”虽然目前美国大多数执行作战任务的机器人还是人的延伸,即由人来控制是否使用武力——比如“食肉动物”侦察机和“收割机”无人攻击机由士兵在几千英里外下指令执行攻击任务,但是有媒体报道,可以自我决定是否杀人的自主机器人确实已成为美国军方的焦点议题,美国全国研究委员会建议“充分利用自动装置带来的战斗优势”,重点研究和生产机器人士兵。而美国海军最近的一份文件指出,最关键的问题就是让能够分辨目标的合法性。“现在大家对军事机器人的想象大多还是停留在电影上或者小说上。”像电影《机械公敌》中出现机器人违反“机器人三原则”“逆袭”的情况,王卫军认为可能性不大,“因为机器人最终还是离不开人的设置”。王卫军的说法和中国国防大学副教授葛立德的观点不谋而合,葛立德就认为,人形机器人完全取代士兵这种可能性不太大,但是机器人在某些领域可以替代人或减轻人所面临的危险性,比如排雷作业、爆炸物排除等。 无人化战争即将上场?实际上,如果将“阿特拉斯”放在美国军用机器人的族谱上,其只能算是位可畏的“后生”2007年,英国《简氏防务周刊》就发表了“美国陆军地面机器人呈几何级数增长”的文章。早在阿富汗和伊拉克战场上,美国军用机器人就已经大展身手,像“赫尔姆斯”、“教授”、“小东西”、“剑”、“魔爪”、“背包”等军用机器人已为业内人士熟悉——身上安装有两个照相机的“赫耳姆斯”主要用于探穴钻洞,能爬进漆黑洞穴并向外发送图片;“背包”机器人则能在巷战环境中捕捉、分辨反美武装狙击手的细微动静;“嗅弹”机器人能灵敏地嗅出伪装起来的爆炸物。从目前军用机器人的作战领域看,主要分为4类,即:水下军用机器人、地面军用机器人、空中军用机器人和空间军用机器人。数据显示,2004年美军仅在两大战场部署了163个地面机器人士兵,2005年达到1800个,2006年又增加至4000个,2007年8月已经超过5000个,而且还在不断地增加。美国的军用机器人都拥有有攻击性很强的武器,能够爬楼梯、过岩石堆,还能翻越铁丝网,在雪地及河水中行走自如。而每分钟能发射1000发子弹的军用机器人也因其高精确性的射击能力被称为“机枪手”。目前,美军中有100 多项战斗任务可由机器人士兵承担,包括战场侦察与监视、目标捕获与指示、搜索与扫雷、通信中继、输送物资、直接攻击目标等战斗任务。除了刚刚亮相的“阿特拉斯”,美国也在发展一种类似于骨骼增强器的运输机器人,士兵在套上这种机器人之后,能够增加单兵背负物资的重量,减轻长期负重的劳累程度。然而,真正让公众觉得“一大波军用机器人袭来”是在近期媒体报道了美国国会的规定之后。美国国会甚至规定:到2015年前,1/3的地面战斗必须使用机器人士兵。美国为此投入了历史上最大的单笔军备研究费1270亿美元。有报道称,未来美军一个旅级作战单元,将至少包括151个机器人战士。陆军无人系统一体化负责人约翰·伯克上校就曾公开表示,美军无人地面系统的增加与无人机的增加一样快。军用机器人的快速增长、对无人地面系统和无人机的倚重,似乎也预示着无人化战争的到来。2007年,美国陆军第29步兵团就举行了一场“机器人战争演习”,当时整支机器人作战兵团由18种执行不同任务的机器人组成,每名机器人与战场上各种陆、空作战平台及传感器连接在一起。在演习战场上,地面机器人充当先锋,当隐藏着的敌人攻击它时,空中的无人驾驶侦察机发现敌军位置,通知巡航中的无人驾驶智能战斗机,然后,智能战斗机发射导弹,命中目标。所有战术行动都由智能战争机器人自行完成。据事后估算,这支机器人作战部队将使战斗时间缩短一半,而美军士兵伤亡率降低60%—80%。这场演习也给人们提供了关于“无人化战争”这一概念最亲近而完整的想象画面。根据美国《未来学家》预测,到2020年,战场上的机器人数量将超过士兵的数量。而美国重点投入研究建设的“未来战斗系统”剑指未来在所有军种中实现士兵与机器人的联系,用机器人代替士兵上战场,从而实现人员的“零伤亡”。无法停止的竞赛■纵深纵观士兵在历来战争中贡献力量的方式,可以发现一直朝着体能、技能再到智能的方向演变,人类迎来信息战,荷枪实弹的士兵被后台轻装简行的士兵所取代,而随着无人机和军用机器人大规模地“占领”战场,“无人化战争”的趋势显得越发明显。全球各国早就看到了这种趋势。据统计,截至2010年,全球已有60多个国家的军队装备了无人机和军用机器人,种类超过150多种,数量超过15万个,其中无人机12万多架,军用机器人3万多个。目前,一些国家正在组建机器人部队。一些军队的机器人已开始执行侦察和监视任务,替代士兵站岗放哨、排雷除爆。其中,英、法、德、日、韩等国研制新一代机器人的计划和项目正在如火如荼展开。英军研制的一批机器人士兵已加入到英国军队中。韩国自行研制的智能型警戒战斗机器人“宙斯盾”为驻伊韩军站岗放哨,防止伊拉克反美武装分子的夜间偷袭;而另一种名为“犬马”的军用机器人也装备至部队。俄也计划将巨型机器人用于国防军队。各国关于“未来战斗系统”的部署步伐也在加快。此前,日本防卫厅公布的《关于实施研究开发的指针》中,机器人技术早就被划入日本重点发展的新军事技术之列。而韩国计划到2018年成为全球三大机器人技术强国之一,在2020年前裁军18万。王文峰和徐熙君在其《即将到来的无人化战争》的论文中提出预计到2040年,美国、日本等机器人强国的军队可能会有一半的士兵是由机器人组成,而到2070 年则可能基本上实现无人化。“美国起步早,而且多年来一直重视研发和提升机器人的作战能力。”在王卫军看来,美国的军用机器人实力位居全球首位,而上世纪70年代才开始起步的中国机器人还要加快发展的步伐。“机器人中的关键技术——传感器、电机等,都主要控制在欧美国家手里,中国机器人技术要想办法解决‘能设计、动不了’的现实问题。”王卫军说。无人化战争,伤亡减少了还是加重了?■观点1975年,美国在侵略了越南14年之后撤军,主要原因是美军伤亡了34万士兵。1993年,美国宣布退兵索马里,和美国民众看到18名美军被残忍虐杀强烈要求撤兵不无关系。2009年,美国宣布将从伊拉克撤离大部分军队,美军高达3万多人的伤亡人数是很大部分原因。从表面看,机器人在未来战场上唱主角,将大大减少士兵的伤亡,“零伤亡”成为可能,而以往战争中最被诟病的问题也迎刃而解。然而,不少专家更担忧,无人化战争实际上是提供了一种新的“低成本、低消耗”的战争方式,从而降低战争的门槛。正如《即将到来的无人化战争》在结语中写道“基于无人化战争的胜负可料和‘零伤亡’,可以想象,未来战争将作为一种解决纷争的高效手段而经常使用。这样的话,国际关系将会有很多的霸道,很多的指令,很少的平等,很少的协商;联合国将失去牵制的能力,小国将失去申诉的权利;强国总是摆出一副不可一世的嚣张气焰,弱国则只能是一副卑躬屈膝的可怜样子;公理将被践踏得粉碎,国际法将被束之高阁。霸权国家一动怒,可能就要发生一场战争。”-南方日报记者 赵琦玉 实习生 赵茹 唐婕  策划统筹 戎明昌 殷剑锋
[责任编辑:robot]
免责声明:本文仅代表作者个人观点,与凤凰网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
用户名&&密码所有评论仅代表网友意见,凤凰网保持中立 
04/21 07:02
04/21 07:02
04/21 07:02
04/21 06:49
04/21 11:28
03/09 16:46
02/24 09:56
03/09 16:45
03/09 16:45
02/27 16:10
03/13 08:17
03/12 08:43
03/12 07:22
03/12 07:57
03/20 09:48
09/07 09:38
09/07 09:38
09/07 09:39
09/07 09:39
09/07 09:39
04/26 09:49
04/23 08:47
04/23 08:57
04/23 09:14
04/23 09:22
48小时点击排行
财经 · 房产
娱乐 · 时尚
汽车 · 旅游
科技 · 健康厉害了!这个机器人竟然能翻跟头!
用微信扫描二维码分享至好友和朋友圈
用微信扫描二维码分享至好友和朋友圈
  今日AI朋友圈新闻:波士顿动力公司在YouTube发布了一段新视频,展示了该公司的Atlas机器人做360度后空翻的惊艳动作。视频一放出立刻在社交网络上引起强烈反响,成刷屏之势。    看完Atlas55秒的旋转、跳跃,有一种体操运动员的既视感,不过最后那一个“扑街”,没忍住,哈哈哈哈哈&&  波士顿动力公司  波士顿动力是前 MIT教授马克 ·雷波特在1992年创建的公司,2013年被Alphabet收购,同时被这个科技巨头收购的还有其他一些小机器人公司。但在2017年6月,谷歌将波士顿动力和另一家机器人公司Schaft卖给了软银集团。  雷波特被誉为 “美国的行走机器人之父”,他对行走机器人的研究最早是从一个名为 “The Hopper”的小项目开始,通过这个项目测试了一些早期的概念产品。  更早的时候,雷波特曾在卡耐基梅隆大学创建了一个名为Leg Lab的实验室,用于研究行走机器人。随后,雷波特又转战MIT,为政府部门建设工程系统。再后来,雷波特创建波士顿动力公司,集中研发行走机器人。    Atlas机器人逆袭之路  还记得那个踹不倒的机器狗吗?    有没有戳中萌点&&  这是当时波士顿动力公司历时七年为美国国防部开发的未来战争机器。  但是傲娇的美国国防部说:“机器狗太吵了,我们不用!”  于是波士顿动力就让机器狗回家养老了,然后公布了新一代的人形军事机器人Atlas。    初代的Atlas机器人是一个双足人形机器人,身高6.2英尺(1.9米) ,是专为各种搜救任务而设计,在日首次向公众亮相。    二代的Atlas身高175cm,重82kg,比上一代产品身材更健美,减肥成功后适合在室内或野外作业。重要的是Atlas终于摆脱了外接电缆,升级为独立电池和液压驱动系统,移动更灵活。在雪地上打滑后,它能恢复平衡;被人故意推倒,它可以爬起来。  要成为一款震惊世界的机器人,“成长”的过程必然是痛苦的,即使Atlas装备了最先进的传感器和技术,但在训练的过程中还是“备受折磨”,比如被工程师推倒、搬货时货物被移走、雪地徒步滑倒等。Atlas除了有敏捷的四肢,还有个机灵的小脑袋,在人工智能的帮助下,Atlas能够在第一时间对周围的环境进行观察和分析,并迅速做出决策,比如被人从背后推倒,就会立即伸长手臂,支撑上半身恢复直立并站立起身。      自带喜感的小可爱&&被“欺负”的,让人怜惜~      看着Atlas走在雪地里萌萌哒的样子,可别忘了这是一款为战争而生的军用机器人,美国未来战斗中的利器。  Atlas机器人技术难题  “Atlas是双足人形机器人,其运动稳定性一直是学术界研究的难题。即使是Darpa机器人挑战赛这样的顶尖赛事里,那些世界一流的实验室做出的双足机器人步态在平地上仍是小心翼翼,而且还经常摔。而这家伙,在山林雪地里健步如飞。”机器人学家的文章指出了Atlas的意义所在。  波士顿动力的创始人兼主席马克 ·雷波特(Marc Raibert)表示:“工程团队做了大量工作,让Atlas变得更轻更紧凑。我们使用3D打印制作机器人的腿部,这样制动器和液压管可以嵌入腿部结构里面,而不是作为独立单元放在外面。此外,我们还开发了定制版的伺服器,比之前使用的版本更小更轻。”    这次视频展示了Atlas机器人在不同高度的箱子之间跳跃、旋转的能力,波士顿动力公司此前发布的Atlas的视频中,这个机器人看起来还有点笨拙、不稳定,但今天,他非常稳定地在箱子之间跳跃、转身、后空翻,动作看起来完全与人类无异。  对此,不少吃瓜群众表示出了担忧,因为机器人已经在生活中各方面开始向人类靠近,并且某些方面已超越人类。甚至有人担心未来机器人不仅只是在工作上替代人类,有可能在情感上也会逐渐影响人类,毕竟它们太像人了。但就目前的科学技术,AI仍处在弱人工智能阶段,主要用途还是用来协助人类,至于未来,且行且看。  
特别声明:本文为网易自媒体平台“网易号”作者上传并发布,仅代表该作者观点。网易仅提供信息发布平台。
阅读下一篇
网易通行证/邮箱用户可以直接登录:技术与正义:未来战争中的人工智能_学术前沿_人民论坛网
技术与正义:未来战争中的人工智能
【摘要】关于人工智能技术的军事化运用所可能造成的伦理学后效,既有的批评意见有:此类运用会钻现有国际军备管控条约的空隙并促发此类武器的全球扩散;会降低杀戮门槛,并导致更多平民死亡,等等。然而,这些批评意见往往对传统军事战术平台与人工智能化的战术平台设置双重了标准,并刻意夸大了后者对于改变全球安全局势的全局性意义。而要真正使得军用人工智能技术的伦理学后效能够满足人类现有的价值观体系,其主要举措并不在于去粗暴地禁止此类装备的研发,而恰恰在于如何使得此类设备具备人类意义上的&伦理推理能力&。而在该研发过程中,如何解决&各向同性问题&亦将成为研究重点。
【关键词】 军用机器人(技术)&& 人工智能& 伦理学& 各向同性& 心灵状态指派
【中图分类号】TP18&&&&&&&&&&&&&&&&&& 【文献标识码】 A
【DOI】10.16619/j.cnki.rmltxsqy.
导论:军用人工智能系统提出的伦理学挑战
众所周知,人工智能技术的核心命意,乃是通过对于计算机的恰当编程,以使得相关设备能够在行为层面上表现出与人类类似的&智能性&。尽管关于什么样的行为可以被判为&智能的&,学界尚有不少的争议,但是一般人都不会反对这么一条评判意见:理想中的人工智能产品,应当能够在尽量减少人工干预的情况下,在相关工作环境中,按照用户的要求自主地完成各种任务。很显然,人工智能产品的这种特性,倘若真能实现,那么,其对于人力资源在各种生产活动中的地位,便会构成一种传统机器所难以比拟的&威胁&,此即:该技术不仅威胁到了传统体力劳动者的地位,而且也部分威胁到了作为新的有用信息产生者的脑力劳动者的地位。而这一点又使得人工智能技术自身与以通讯技术为代表的传统信息技术有了区别:在通讯技术中,技术承载者本身并不提供新的信息,而只是在传播信息方面提供便利;与之相比较,理想的人工智能技术平台则成为新的有用信息的供应节点。
虽然目前的人工智能技术离全面取代各行各业的人力资源依然有颇长的一段路要走,但是在一些人力资源相对稀缺的领域,这方面的社会需求已经非常强劲,甚至相关的某些应用实践也已经渐渐展开。在美国耶鲁大学的生物伦理学跨学科研究中心的研究员瓦拉赫(Wendell Wallach)与美国印第安纳大学的科学哲学与认知科学专家艾伦(Colin Allen)合写的《道德机器:如何教会机器人辨明是非》①一书第三章中,他们提到了人工智能技术的三个最有前途的应用领域:军用机器人(以便减少战争中的直接人力投入,以此避免己方军队伤亡);性爱机器人(以便以某种法律上许可的方式满足单身人士的生理欲望,并以此降低全社会的性犯罪率),以及工业机器人(以便应对因为人口老龄化所造成的用工荒)。不难想见,虽然人工智能技术在这三个领域的运用都会导致相关的伦理问题,但是军用人工智能系统所构成的伦理学问题是最为尖锐的,因为此类系统的任务就是直接杀戮生命,或为杀戮提供间接帮助。这自然也就牵涉到了特定军事暴力行为自身的合法性问题。美国空军退役上校,现于塔尔顿州立大学教授哲学与宗教的哈尔嘎斯(Matthew Hallgarth)就此写道:
军事冲突的语言即关于辩护(justification)的语言。军事冲突导致人员的死亡以及财产的受损,并造成各种形式的可以想象的大量伤害。不给理由就去做这些事情乃是疯狂的。不过,即使你有了理由去做了这些事情,如果同样的目标可以通过更少的人员与财产损失来达到,那么,相关的军事行动还是无法得到辩护。②
这段话的基本精神便是:(1)军事行动分为&得到有效辩护&与&未得到有效辩护的&两种;(2)军事行动所导致的破坏,在战争行为得到辩护的前提下,在伦理上便是可以被允许的;(3)不过,对于某个特定的军事行动的辩护本身的门槛很高,因为此类辩护需要比对战争行为与各种其他可能手段各自的损失/效益比,并证明相关军事行动的损失/效益比最低(譬如,在日结束的导致333名无辜人质死亡的&别斯兰人质事件&中,俄罗斯安全部队所采用的通过释放神经毒气、麻痹匪徒的方式来解救人质的行为是否能够得到合适的伦理学辩护,在相当程度上将取决于我们如何预估在不采用此类攻击方法的前提下人质所可能遭到的损失)。
不过,此类关于军事行动自身可辩护性的争鸣可谓古已有之,而军用人工智能系统的介入,又会在多大问题上会改变此类问题的性质呢?
这种改变主要体现在以下两个方面:理论方面与实践方面。
先来看实践方面。试想:如果别斯兰事件的处理者从人类士兵转为人工智能系统的话,那么,对于特定军事行动的决策将由机器自主完成。而在这样的情况下,相关行动的伦理学责任的承载者也就会随之成为一个问题&&譬如:我们可以因为人类指挥官的错误军事决策而将其告上军事法庭,但是,我们又如何可能将犯下错误的机器人战士告上军事法庭呢?很显然,我们目前的法律系统还没有为处理此类问题做好准备。
再来看理论方面的问题。在人类指挥官发出命令或人类士兵执行命令的情形下,不必预设我们已经具备了关于这些军人的大脑运作的充分知识(因为即使在神经科学知识付诸阙如的古代,一个指挥官也应当知道他的士兵能够听懂并执行其命令)。与之相对比,由于机器人士兵的每一个元件与每一步算法都是人类设计者的产物,故而,我们根本就不能设想这样的机器人能够在&其设计者不知其如何运作&的前提下还能够按照设计者的要求去运作。这也就是说,恰恰是对于机器人战士的设计本身,倒逼着设计者们先从理论层面上弄清人类战士的伦理决策过程的各个细节&&而不幸的是,无论是现有的伦理学的研究,还是现有的对于支持人类伦理决策过程的神经机制的研究,都还没有成熟到能够为&伦理决策的程序化编制&提供稳固的学理依托的地步。
读者或许会说,既然机器人战士的设计在实践上会造成麻烦,而在理论上又缺乏扎实的学术准备,我们又为何要费心发展此类技术呢?但这样的反驳其实并不是很有说服力。假设我们&穿越&回了达&芬奇的时代,并由此目睹了这位艺术大师兼工程学大师正在设计飞行器。请问,文艺复兴时代的欧洲法律体系,已经为飞行器的安全使用做好相关准备了吗?而当时的物理学发展,是否也已经为飞行器的设计提供了扎实的学术基础了呢?恐怕都没有。但是,我们却难以由此得出&达&芬奇在胡闹&的结论,因为没有他的这些勇敢的技术尝试,欧洲的科学技术就难以在日后发展到足以使得对于飞行器的设计与建造成为现实的地步。此外,相关的飞行器交通法规的出现与完善,也只有在相关交通工具的确已经成熟的前提下才有可能。所以说,实践与理论上的困难,并未构成阻碍我们制造军用人工智能系统的充分理由,相反还会在一定程度上构成相关技术努力的&激发器&(不过,关于如何克服这些具体的困难,显然还是有巨大的讨论空间的。详见后文)。
读者或许还会说:飞行器与军用机器人不同,前者可以用于战争目的,也可以用于和平目的,后者则只可以用于军事目的。因此,建造军用机器人从根本上就是反伦理的。不过,这依然是一个很薄弱的反驳意见。从手枪到核导弹,人类毕竟已经建造出了各种类型的武器弹药。缺乏对于运用这些武器的历史语境的考察,抽象地指责军火工业是&反伦理的&还是&有利于促进人类道德水平的&,恐怕都是毫无意义。而这个一般性的结论,也应当能适用于对于智能化武器的讨论中去。
而一些对智能武器特别抱有敌意的批评者或许会继续反驳说:我们并不反对制造一般意义的有人操控的武器,但是我们反对制造并且使用具有高度自主性(特别是具有自主开火权)的军用智能机器人,因为这类武器很特殊&&而正是因为这种特殊性,才使得我们有理由禁止开发并且部署它们。
那么,究竟是军用智能机器人的哪些&特殊性&才使得它成为被禁止的理由呢?而这些理由是否能够站得住脚呢?
关于智能军用系统之伦理危害性的五个论证及其薄弱处
前面我们已经提及,从伦理学角度看,军事行动可分为&得到辩护的&与&未得到辩护&两类。这也正是俗称的&正义的&与&非正义的&军事行动之间的分别。哈尔嘎斯则将&正义的&军事行动所应当具备的规范性条件归结为七条(见表1③)。很显然,如果一个人试图论证智能军用系统的广泛运用能够使得对于这七条规范中的至少一部分更难被满足的话,那么,这样的论证结论就自然能够帮助其导出对于人工智能的军事运用的负面伦理学评估。反过来说,如果人工智能的军事运用的支持者能够证明此类产品的出现不足以对上述规范的满足构成明显的障碍的话,那么,上述负面评估的可靠性也就会由此抵消。
就上述七条规范性原则与人工智能系统的军事化运用之间的关系而言,笔者的大致意见是:这些规范主要关涉到了战争行为的宏观决策行为,而与个别作战人员的当下战术决策关系不大(譬如,特定的武装力量首脑以及其他政治支配力量对于战争理由的解释是否恰当,实际上与基层指战员的战术决策方式并无直接因果关系)。而就通常人的理解而言,人工智能技术对于现有武器的改造往往是针对战术兵器而言的,并以使之&无人化&为短期目标,而一般并不特别针对洲际导弹等战略兵器的改造(因为后者本来就已是&无人化&了)。在这样的情况下,人工智能技术的军事化所导致的战争样态的变化也只具有战术层次上的意义,而不会在更宏观的尺度上改变使得战争决策本身得以被给出的整个政治经济环境。由是观之,至少从原则上看,军用机器人的出现似乎并不会使得本来非正义的战争变得正义,也不会使得本来正义的战争变得不正义。此外,由于智能武器的研发本身,本来就有&使得军事打击更为精准化&与&降低人类士兵生命风险&这两大设计初衷,因此,它们的出现无疑还能够降低战争的损失,而由此提高战争的&人道指数&。故而,似乎并不存在着一些特别强的理由去促使伦理学家们为智能武器的出现打上负面的印象分。
不过,这样的粗略的回复显然不能够说服坚持为军用人工智能系统的伦理学面相&打负分&的伦理学家们。且看他们在下面所提出的更为细致的反驳意见,以及笔者对于这些意见的再反驳。
反驳意见一:无人智能武器的出现会钻现有的国际武器控制条约的空子,并由此使得世界和平更为脆弱。
此意见是德国的技术伦理学家阿尔特曼(J&rgen Altmann)提出的。④阿尔特曼提醒我们注意:战术兵器(如主战坦克)与战略兵器之间的界限,会在前者的数量被大量增加的情况下而变得模糊(比如,十个装甲师就可以被认为是一支战略性力量了),因此,人工智能技术与既有作战平台的结合物,只要乘以巨大的数量,就会导致战略能力的激增,对国与国之间的战略平衡造成威胁,并进而危害世界和平。他同时提醒我们注意:目前世界上现有的武器控制条约都没有对人工智能技术的广泛使用作出明确限定,这就为在这方面掌握技术优势的国家&钻条约的空子&大开了方便之门。以1990年通过的《常规武装力量裁减条约》(The Treaty on Conventional Armed Forces)为例,此条约对北约与俄罗斯所各自能够在欧洲部署的主战坦克、自行火炮、武装直升机等常规陆战战术平台的数量上限作出了规定,并允许条约签订国对彼此的条约执行情况进行互检。需要注意的是,该条约在字面上并没有谈及上述战术平台应当是有人驾驶的还是无人驾驶的,而只对相关作战平台的物理特征做出了规定(如&坦克重量必须在16.5吨以上&,等等)。在这样的情况下,无人驾驶的&类坦克兵器&或许就能通过&减重&而使得其摆脱&坦克&的名义标签,并由此得到不受条约控制的发展(需要注意的是,在减去三名到四名人类成员的前提下,此类&减重&在技术上并不困难)。
笔者的再反驳意见:没有任何一个军备控制条约能够覆盖未来兵器的可能的发展方向,而这一点即使在无人智能武器出现之前也是成立的。以1922年通过的《美英法意日五国关于限制海军军备条约》(或简称《五国公约》)为例:该条约对签约五列强的战列舰、巡洋舰等主要舰种的吨位分配以及相关武备(特别是舰载火炮与鱼雷武器)的性能上限均作出了规定。但是,这个条约并没有对在日后的海战中大放光彩的航空母舰的发展作出明确限制,而这一点也在客观上为各签约国(特别是日本与美国)日后的庞大航母编队的出现打下了伏笔。然而,若有人因为这一点&疏漏&,就提出&倘若人类当时就能够禁止各国研发航母,山本五十六就根本无法制定偷袭珍珠港的计划了&之类的议题,未免就显得过于天真了。纳粹德国在二战时期根本就没有一艘可用的航母(其&齐柏林&号航母直至战争结束时都未服役),但这似乎并没有阻止其研制出V-1与V-2导弹袭击伦敦&&而与早在&一战&后期就已出现的早期航母相比,导弹武器当然更是在《五国公约》的文本草拟者头脑之外的事物了。这也就是说,既然任何军备控制条约都会有所遗漏,那么,即使现有的军备条约包含了限制智能武器使用的条款,也不能够保证条约草拟者所忽略的其他未来兵器(如可以小型化的电磁炮与激光炮)不会比无人智能武器带来更大的&战略失衡风险&。此外,从纯军事技术的角度看,阿尔特曼所设想的无人驾驶的自主性坦克与传统有人坦克之间的差异,其实要远远小于航母与战列舰之间的差异。航母毕竟是与战列舰在作战功能上非常不同的一类高端海战兵器,而抛开&有人无人&这一点不谈,无人坦克的作战功能与有人坦克是基本相同的。譬如,未来无人坦克的现有雏型&&美军Robot-TALON-SWORDS系统(2007年服役)&&所装备的M-240机枪或者40毫米榴弹发射器,并不会因为其被安装到了无人驾驶平台上,而在技术参数上有别于人类士兵手中的同型号武器。因此,即使此类无人驾驶战术平台在数量上被累积到了可观的数字,由此而为新技术拥有方所带来的战略优势也是有限的,并很容易被对方所具有的其他更具摧毁性的武器(如战术核武器)所抵消。由此看来,即使在无人智能武器被广泛运用的明日战场,对于世界和平最大的威胁依然还将会是核、生、化等既有的大规模杀伤性武器。而将武备控制的焦点转向人工智能的军事化运用,或许恰恰反而会诱使我们错过了国际军备控制问题的真正关节点。
反驳意见二:无人智能武器的出现,很可能会为此类的武器的全球扩散制造机缘,并由此使得世界的和平更为脆弱。
这一条反驳意见与上一条反驳意见有一定的意义关联,但是其重点是放在军控条约之外的军备仿制行为之上的。由帕恰克&林(Patrick Lin)所牵头的一个科技伦理研究团队,在由美国海军资助的研究报告《战争机器人的风险与相关的伦理议题》⑤中指出,即使美国军队所研制的军用机器人能够暂时取得战场上的战术优势,一旦此类装备被具有相当的逆向工程学仿制能力的敌方所俘获,那么,此类武器的扩散就会成为不可避免的事情。此外,考虑到任何一个此类军品的研发国都会觉得自己的研发行为具有政治上的正义性,所以,单纯的伦理学争辩将无法说服任何一方冻结此方面的研发行为。故而,全球范围内的人工智能军品研发竞赛也将无法避免。
笔者的再反驳意见:上述反驳意见其实已经夸大了反向工程学设计对于新技术的获取能力。相关技术理由有四:(甲)即使军用机器人被敌方俘获,使得其软件得以运作的源代码也未必能够得到技术能力相对有限的俘获方的成功解码;(乙)即使此类源代码被成功解码,被解码方修改源代码程序以升级原有武器的软件包的技术难度,也会远远小于重新设计相关武器的硬件平台的技术难度&&而此类升级会立即使得解码方的解码成果变得意义甚微;(丙)我们或许不难设想:未来军用机器人本身的智能力量在很大程度上将依赖于存储于&云&中的大数据信息,故而,对于单个平台的俘获未必会对已经占有信息优势的一方构成真正的损害(除非俘获方可以&黑&入地方网络窃取情报&&但要做到这一点,却未必以俘获地方战术机器人为前提);(丁)由于人工智能军品的广泛运用,会大大降低人类士兵被地方俘获的几率,因此,相关运用反而会降低经由被俘人员之口泄露军事机密的几率(因为无论从技术还是伦理角度上看,安置人工智能军品被俘后的自毁程序的难度,均要远小于教育人类士兵被俘后&宁死不屈&的难度)。
结合前面四方面分析,我们不难看出:如果人工智能兵器的俘获方本身不具备强大的人工智能产品的研发能力与数据采集方面的积累的话,此类俘获行动为其所带来的战术与战略优势恐怕都会是相对有限的&&而反过来说,倘若其已经具备了这方面的很强的科研能力的话,那么,通过俘获敌方产品来提升自身武器性能的做法,意义也就不大了。故而,从人工智能军品的&可俘获性&之中,我们恐怕并不会立即推出相关技术的&易扩散性&。
反驳意见三:无人智能武器的出现,会使得杀戮变得更为容易,因此,也会使得军事暴力在未来变得更为频繁。
谢菲尔德大学的机器人与公共事务方面的专家沙克(Noel Sharkey)从战争心理学的角度,讨论了人类士兵直接参与的战争与未来由机器人所主导的战争之间的差别。他援引历史学家的研究成果指出,当人类士兵面对敌对方的其他人类士兵的时候,其杀戮行为会受到种种心理压力的制衡(如在二战的太平洋战场,有八成的美军步枪手在面对敌人时要么故意不放枪,要么故意将子弹打偏;而通过对于美国内战的盖茨堡战役中随机回收的27574支火枪的调查,历史学家还惊讶地发现:其中的九成枪支存在着重复装弹的问题&&这就说明很多士兵只是在战场上装出向敌军射击的姿态)。⑥然而,军用机器人却不会在面对人类目标时具备同等的心理压力,因此,其杀戮行为也会变得更为冷酷而高效。此外,在机器人战士已经被广泛运用的前提下,战争决策人与实际的杀戮场面之间的&杀戮距离&也会被拉得很大,以至于残酷的战争场面已经难以对人类决策者的实际心理构成任何值得一提的影响。这同样亦使得阻碍战争决策发生的相关心理门槛变得更低,并使得决策者更容易趋向于使用军用机器人(而不是非暴力手段)来达到自己的政治、经济目的。
笔者的再反驳意见:
第一,如果有人认为机器人战士的广泛参战对于杀戮效率的提高会最终对和平构成威胁的话,那么,从逻辑上看,为了保卫和平,我们不仅要阻止机器人战士的参战,而且还要阻止任何别的手段去增加杀戮效率,甚至还要努力降低这种效率。由此导致的推论便是:保卫和平的最佳方式,就是制造出尽量劣质的枪支,在训练中鼓励士兵故意不击中目标,等等。但这显然是荒谬的。此外,在传统战争中,紧张、负罪感等心理压力对于人类战士心理困扰,本身就会贻误战机,并提升己方战友被敌人杀伤的概率,甚至是误操作武器伤害自身的概率(比如,南北战争时期前膛枪的弹药若被重复装填,其实是非常容易导致严重的炸膛事故的)。而在假设我们所参与的战争具有正义性的前提下,上述种种因素的浮现,显然只会促使邪恶势力更快地胜利,并由此反而降低全球的伦理水准。而反过来说,只要战争本身的正义性不成为问题,人工智能技术的军事运用,则会使得人类指挥员的作战意图可以得到更高效、更精准的贯彻,并使得具有正义性的战争早日胜利(笔者的这一意见参考了前文提到的帕恰克&林等人给出的调研报告的相关内容,但是笔者根据自己的意见对其原始表述作出了改写⑦)。
第二,甚至关于&军用机器人在进行杀戮时毫无心理压力&这一断语,我们也不能够给予充分的赞同。机器人的设计者当然不希望自己的产品会在战场中因为&紧张&而发生武器的误操作,但是,为了能够在复杂的战场环境中更为有效地进行针对不同行为的伦理后果的推理,一些设计者依然希望能够在软件层面上模拟出&怜悯&等人类情绪,以便使得机器人的行为输出能够接近富有正常感情的人类战士的输出(关于这一问题,后文还要详谈)。因此,即使此类军用机器人虽然在面对真正的敌人的时候会有更高的杀戮效率,但这也绝不意味着它们会&滥杀无辜&。
第三,至于人工智能的广泛运用是否会降低战争发动的门槛,则需要结合多重因素做全面评估。应当注意的是,即使在军用无人机技术还远远没有达到&无监督自主运作&的今天,对于精确制导弹药的广泛运用,早已使得以美国为代表的西方军事强国具备了针对弱国的巨大军事优势。但即使在这样的前提下,各国的宪法与相关的经济、政治考量,也会使得相关国家的领导人在军事决策问题上有所顾忌(如时下美国政府在打击伊斯兰国与干涉叙利亚局势时的瞻望犹豫态度,便可为明证)。而人工智能因素的介入是否会对既有的国际军事格局产生根本性的影响,则颇令人怀疑。其具体理由是:(甲)自主运作的无人军用平台自身的高昂价格与其所携带的灵巧弹药的高昂价格,依然会构成阻碍当事国轻启战端的经济因素;(乙)在军用人工智能技术使用国的对手是弱国的前提下,人工智能技术的加入对技术使用国的既有军事优势,并不会产生明显的&加分效应&,相反还会成为某种&边际效应&;(丙)而在相关技术的使用国的对手具备较强军事实力的前提下,后者也可以通过升级战略导弹等传统战略兵器的方式,来抵消掉人工智能技术所带来的微弱优势。总之,单就人工智能技术的加入这一因素而言,其使得全球战争变得更为频繁的几率是微乎其微的。
反驳意见四:无人智能武器的出现对于己方士兵生命的保护是以杀死更多的平民为代价的,因此从人道主义角度考量(而不是从狭隘的民族主义角度出发),这些武器的出现降低了全球的伦理水准。
这一意见是瑞典的科技伦理专家韦伯(Jutta Weber)给出的,为此该作者还专门提到了美国与以色列等国运用无人机技术进行反恐战争时,诸多无辜平民也被连带杀死的案例。⑧不过,这样的反驳是否经得起数据的考量,还需要更仔细的考证。
笔者的再反驳意见:美国政治学专家蒲牢(Avery Plaw)针对美军无人机部队在巴基斯坦以及阿富汗所从事的反恐战争,而进行了认真的伤亡估算。⑨根据此估算结果,笔者认为:前述对于无人军用平台&滥杀无辜&的指控,其实是在夸大其辞。具体理由如下:
首先我们必须肯定,任何战争都难以避免平民的误伤,而仅仅因为看到平民被误伤就否定一切军事行动的合理性,我们就会转而去否定二战时期盟军轰炸德国与日本的合理性了(众所周知,在这些军事行动中被连累的无辜德日平民的数量,要远超在今日的阿富汗与巴基斯坦的反恐战争中被连累的平民数量)。反过来说,如果我们对有人飞机的轰炸所造成的误伤特别宽容,却特别计较于无人机打击所造成的误伤的话,那么,我们就已经犯下了&设置双重标准&的错误。而更一般地来看,根据所谓的&动武代价相称性原则&,要判断特定类型的军事行动(下面简称为&M&)所导致的误伤量是否达到了一个伦理上可以被接受的最高阈值,我们还需要比较三个数据之间的大小:
(甲)被行动M所误杀的平民占被其所杀死人员的总数(即被误杀者与被杀死的真正敌人之总和)的比例有多高?
(乙)如果M被悬置,而相关军事主体采用传统战争手段进行军事干预的话,那么,其误杀的平民占被其所杀死人员的总数的比例有多高?
(丙)如果相关军事主体什么事情也不做的话,那么,当地平民的死亡数在当地武装冲突所导致的总体死亡数中所占据的比例有多高?
很明显,套用到美国及其盟友所从事的反恐战争的具体语境之中,只要第三个数据明显高于前两个数据,这就说明美军及其盟军对于当地局势的干预,能够使得更多的平民从恐怖分子的枪口下得救(尽管这也难免使得一部分不走运的平民被误伤)。而如果第二个数据又明显高于第一个数据的话,这便会进一步证明运用无人军用平台从事这类军事打击的合理性。而蒲牢所提供的计算结果恰恰支持这种&甲小于乙小于丙&的排序方案(见表2⑩)。
从上面的分析来看,无人机的使用恰恰提升了阿富汗以及巴基斯坦地区的安全形势,拯救了更多良民的生命。另外需要注意的是,目前美军使用的&捕食者&等型号的无人机并不是真正意义上的人工智能产品,因为其运作还需要后方的人类遥控员进行远程指挥。由于遥控员与无人机之间的巨大空间阻隔,操纵信号的延迟便会时常发生,而很多不幸的误伤事件也是由此发生的。不难想见,在未来的人工智能军用平台的运作高度自主化的前提下,此类延迟时差就很可能会被基本消除,而由延迟时差问题所导致的误伤现象也会被进一步减少。从这个角度上说,人工智能化的兵器的&人道性指数&不仅会远超传统人操军用平台,而且也会超过今日的无人机。
反驳意见五:无人智能武器的出现,使得人类士兵的传统&武德&的存在成为冗余,并由此为人类社会的整体安全构成了某种隐患。
这个反驳意见的主要提出者乃是澳洲莫纳什大学的伦理学家斯帕若(Robert Sparrow)。(11)他具体提到了从属于传统军事组织的人类士兵所需要满足的四项&武德&要求:&勇气&(以使得战士能够直面死亡的威胁而勇往直前)、&忠诚&(以使得战士能够使得自己的利益服务于军事集体的利益)、&荣誉&(以使得战士能够在为军事组织作出奉献之后获得正面的心理反馈)、&仁慈&(以使得战士的军事暴力行为能够多少具备&文明&的面相,如不虐杀俘虏,不伤害平民,等等)。而在斯帕若看来,无论是今日的远程遥控飞机以还是未来的自主性机器人战士,其广泛运用都会使得上述&武德&被渐渐边缘化。具体而言,无论是操控无人机的行为还是给机器人战士下指令的行为,都不需要人类操作员面临任何生命风险,因此,新技术对于人类操作员在&勇气&与&忠诚&等方面的德性要求,也就会随之大大降低。此外,也正是因为武器操控人员与杀戮现场之间的距离足够远,因此,这种无风险的战争也会大大降低人类操作员的军人荣誉感,并使得其难以理解&仁慈&的价值(比如,只有在能够设身处地地思考敌人的处境的前提下,对于敌人的仁慈才是可能的&&可远距离的操控却使得这种&设身处地&变成奢望)。而斯帕若的担忧则是:如果这些已经盛行几千年的军人武德被废弃的话,那么武装部队得以被凝结的精神基础也会随之动摇,而这一点又进一步会为人类未来社会的安全性造成不可估量的风险。
笔者的再反驳意见:在对于军用人工智能系统(或作为其当下&前身&的远程操控武器系统)的种种伦理学批判中,斯帕若的意见可谓卓尔不群。因为一般的批评者都已经在自己的立论上或隐或显地预设了和平主义的立场,而斯帕若则似乎是站在军人的传统价值观立场之上。但是,出于以下四点考量,笔者依然认为其批评意见并不能自圆其说:
第一,由于技术优势所导致的交战双方的技术不对称,其实是各个军事强国一直在努力获得的目标,而这种目标的暂时获得自然也就使得技术掌控方能够在&安全距离&之外任意杀戮自己的目标而不必承担风险。因此,传统武德的弱化,其实远在军用人工智能武器或远距离操控系统问世之前就已慢慢发生&&譬如,早在1898年的恩图曼战役之后,英国陆军指挥官基钦纳勋爵就对其部属以损失47人代价,用机关枪消灭一万名苏丹战士的&战绩&感到&胜之不武&。(12)因此,从论证角度看,斯帕若的&武德衰减论&不仅适用于军用人工智能系统,而且也适用于任何能够带来非对称优势的军事科技。由此所导致的逻辑后果便是:我们不应当去发展任何能够带来非对称优势的军事科技,而应当全部回到&武德&最盛的中世纪时代中去,用冷兵器进行战争。但这个推论显然是荒谬的。
第二,斯帕若的论证模糊地提到了武德丧失后人类社会所面临的风险。但是他却没有详细说明这样的风险是什么。很显然,在冷兵器时代,由于武装人员的身体机能对于战斗的胜负至关重要,而&武德&又是维持此类身体机能的重要精神因素,所以,缺乏武德的群体在面对突然的军事威胁时其面临的生存风险的确是很大的(譬如,建康的梁朝士大夫们在548年开始的&侯景之乱&中,就是因为军事勇气匮乏,身体又缺乏基本锻炼,而几乎被叛军屠戮干净)。而在战争技术日益精进的今天,&武德&的衰微所可能导致的社群生存风险也便大大降低了,因为轻易就可以被操纵的武器可以使得妇女也具备强大的自卫能力&&除非这些军事技术会莫名其妙地突然失传(但由于军事技术是内生于整个现代科技体系的,除非整个现代科技莫名其妙地崩溃,我们很难设想唯独军事技术会突然失传)。
第三,随着自主性军用机器人的大批服役,人类武装部队成员的职责自然会全面转向对于这些自动化设备的软硬件维护以及远程操控之上,而由此必然会导致部队人员开支的大规模缩减,以及各国国防经费的缩减。同时,武装人员的阶层色彩会从比较容易受到国家意识操控的农民战士,转向受过良好教育的中产白领,这样一来,以民粹主义为底色的军国主义宣传将渐渐失去阶级基础。这一点显然有利于促进全球和平指数的提高。
第四,&勇气&&忠诚&之类的人类德性当然还具有军事活动之外的更为宽泛的应用范围,因此它们不仅仅只能被视为&武德&的一部分。不难想见,在战争之外,商业与科技(乃至各类竞技体育比赛)等领域内的竞争也需要社会成员勇于克险、甘于奉献,因此,只要相关领域内的激励机制能够正常起效,武德的衰落未必会造成社会德性的全面退化。
由于篇幅限制,笔者只是挑选了现有英文文献中最具代表性的几个针对无人军用人工智能系统的伦理学面相的批评意见。从更高的层面上看,这些批评意见均在下述方面将读者引入了思维陷阱:第一,对传统军事战术平台与人工智能化的战术平台设置双重标准,即对前者导致的伦理学问题刻意规避,而对后者所可能导致的问题尽量放大;第二,没有意识到自身对于军用人工智能系统的批评意见也可以被运用到过往的军事技术进步之上,由此,既错过了对于前者的聚焦,又容易导出&反对一切军事技术进步&的极端推论;第三,忽视手段与目的之间的区别,将杀戮效率的提高与战争自身的目的或动机混为一谈;第四,刻意混淆作为战术兵器的军用人工智能系统与战略性兵器之间的界限,夸张前者对于改变全球安全局势的全局性意义。
然而,笔者对于上述批评意见的反驳,并不意味着我们就应当在研发军用人工智能系统时,抱着一种伦理学上的冷漠态度。正确的态度毋宁说是:我们既不能因为相关伦理学风险的存在而因噎废食,也不能因为有人因噎废食了而去对相关风险不管不顾。而正如本文&导论&部分所指出的,军用人工智能系统所导致的最棘手的两个问题是:第一,从理论角度看,如何为相关技术平台的&伦理决策的程序化编制&,提供稳固的学理依托?第二,从实践角度看,如何为那些已经具有高度自主性的军用人工智能系统所可能犯下的错误核定其责任归属?这也便是下节所要讨论的问题。
伦理推理的程序化及军用机器人误伤责任的判定
首先我们需要肯定的是,一个真正具有自主性的(即非远程遥控的)军用机器人肯定是具有伦理推理能力的,因此,去讨论是否要为这样的自主性军用平台去加装相关的伦理推理模块是没有意义的(在这里,我们将&伦理推理能力&宽泛地界定为对于&当下该做什么,又不该做什么&的判断能力)。而之所以这么说,则又是基于如下推理:
(1)与日常生活类似,大量的军事作战任务都会设置各种不同的作战目标(如摧毁敌军战车,但要保卫要点附近的油库,等等)。
(2)由于资源与时间的限制,以及预想中的作战环境所可能发生的改变,在特定的语境中,这些作战目标并不能被完全达成,因此就需要命令执行者在作战目标之中作出取舍。
(3)这就牵涉到被取舍对象的&优先度&排序问题。
(4)虽然系统很可能已经从指挥员那里得到了如何进行此类排序的一般原则(如:&在面对敌军众多装甲战车时,优先攻击主战坦克,然后攻击步兵战车&,等等),但在具体的语境中,如何灵活地执行这些标准却依然是需要某种变通的(比如,倘若系统发现敌军使用的新型步兵战车的车载反坦克导弹的威胁,其实并不小于敌军坦克的坦克炮的威胁,那么,系统应当首先攻击谁呢?)。
(5)上述变通能力是广义上的&伦理推理能力&的一个变种,也就是说,它在本质上就是按照一般的规范性原则,而在特定的语境中决定&什么该做什么不该做&的能力(在非军事语境中,这种能力的典型体现便是如何在特定语境中执行&紧急避险&&正当防卫&等抽象原则)。
(6)所以,自主性运作的军用技术平台是肯定具有特定的伦理推理能力的,否则,其运作就不是真正具有自主性的。
从纯战术角度看,让一个战术平台具有一定程度上的伦理推理能力,其意义是相当巨大的。这可使得相关平台能够在不与人类指挥员作出信息交换的前提下,根据稍纵即逝的战机迅速作出反应,以此提高作战效能,尽量避免因为人机互动而导致的战术失误,并最终为战术目的的达成作出正面贡献。但问题是:根据大多数人的道德直觉,我们必须使得军用机器人相关推理活动的输出,能够达到与人类战士相同(乃至更高)的正确率,否则我们就没有伦理上说得过去的理由将其投入实战。但是,我们又该如何使得看似死板的军用机器人具备这种&奇幻&的能力呢?
为了能够使得我们的讨论更为精细化,下面,就让我们从由前美国海军陆战队狙击手克里斯多夫&斯科特&凯尔(Christopher Scott Kyle,)的自传体小说改编的电影《美国狙击手》(American Sniper)中抽取一个片段,以便更为形象地展现出在军事环境下所进行的伦理推理的一些基本特征。尔后,我们再回过头去讨论如何用计算机编程的办法去再现此类推理过程。
在这部电影的某个场景中,凯尔奉命用狙击步枪封锁巴格达的某街巷,时刻护卫在其视野内活动的战友。如果凯尔发现有恐暴分子对其战友做出能够威胁其安全的行动的话,那么,他是有权率先开枪将其击毙的。但这里的问题是:如何在芸芸众生之中,实时判断出哪些人是潜在的恐暴分子呢?如何避免误伤无辜群众呢?而在电影中出现的真实境况便是:一个当地小男孩,拾起了一支遗落在地上的RPG火箭筒&&在这样的情况下,凯尔是否应当判断其为恐暴分子呢?这无疑让凯尔陷入了两难。如果说这孩子是恐暴分子的话,可是,按照常理,这么小的孩子成为恐暴分子的概率应当是很低的,而且,出于模仿成人行为的本性,他拿起火箭筒的行为或许只是出于嬉戏的心理;但如果听之任之的话,这孩子只要真的扣动扳机将火箭弹射出去,这一举动势必就会杀死正在附近闲聊的美军。那么,凯尔又该如何判断这个孩子摆弄武器的真实意图呢?
在上述场景中,凯尔所执行的任务显然有两个子目标:保护战友,以及避免误伤群众。而在孩子拾起火箭筒的那个瞬间,这两个任务之间的逻辑冲突便慢慢浮现出来了:尽管依据所谓的&排中律&,那个孩子要么是恐怖分子,要么就不是,但是在现实的语境中,凯尔是很难判断这样的一个手持危险武器的孩子到底是不是恐怖分子的,因为要彻底洞察目标意图的时间资源与社会资源恰恰是他所不具备的。在这样的情况下,他就必须在&保护战友&以及&避免误伤平民&之间作出快速的权重调整,并确定何者为其第一目标。虽然在电影中那个男孩由于扔掉了武器而使得两个目标都自动得到了实现,但倘若他没有这么做的话,他却很可能会被凯尔立即射杀(尽管他本人的主观意图或许一直是&开个玩笑&而已)。这样的话,对于凯尔来说,上级下达的&避免误伤平民&的作战意图或许就无法得到贯彻了。
现在我们转而思考这个问题:倘若凯尔不是一个真人,而是一个自主化运作的智能化狙击步枪射击系统(下面简称为&机器凯尔&),该系统又该如何面对这样的伦理学困境呢?
按照上面的分析,真人版凯尔所面对的最大的困扰就是如何知道那个小孩的真实意图,即如何知道他是不是&非战斗人员&。而机器凯尔显然也会面临同样的问题。很多熟悉人工智能的读者会说,这无非就是一个&模式识别&(pattern recognition)的问题。简言之:如果&模式识别&的结果裁定目标为非军事人员,那么就不该开火;反之则开火。
在笔者看来,该答案虽不能算错,但实在是过于简单了。不难想见,真人版凯尔的视觉系统与大脑也可以被视为一个&模式识别系统&,而在前述的场景中,为何同样的模式识别任务也会让真人版凯尔也感到为难呢?而在这样的情况下,我们又怎么能够指望人工设计的机器版凯尔,能够比通过自然演化而来的真人版凯尔的神经系统更好地判断出谁是&非军事人员&呢?由此看来,我们还需要对&模式识别&的技术细节作出更细致的探讨,以便确定使得机器凯尔的识别水平可以至少接近人类战士水准的具体技术路线。下面便是两条最可能被想到的技术路线:
第一,系统将所有同时满足下述三个条件的人员都视为潜在的恐暴分子:1、持有武器;2、未穿我军军服却身穿平民衣服;3、正在用武器指向身穿我军军服的人员,或者是别的平民。如果同时满足这三个条件,则系统有权对其开火。
第二,系统通过与贮存在&云&中的大数据信息进行信息交换,以便对每张看到的人脸进行人脸识别,最终确定谁是潜在的恐暴分子,并对其作出追踪。一旦发现其作出危险动作,可立即开火。
仔细思量一下,这两条技术路线都有漏洞。
第一条技术路线所牵扯出来的问题有:到底什么叫&武器&?日本武士刀肯定算武器吧,但是在电影《太阳帝国》(Empire of the Sun)中,一个已经投降的日本军人只是用武士刀帮助主人公吉姆切开苹果而已(因为当时两人手头恰好没有别的刀具),却被远处的盟军游击队误认为是在试图加害吉姆,而被开枪击毙。而用来砍香蕉的刀具肯定不算武器吧,但在1994年的卢旺达大屠杀中,此类砍刀却被广泛地用以进行残酷的种族清洗。这也就是说,什么算是&武器&什么不又不算,乃是根据特定的语境而被判定的,而这种&根据语境而进行灵活的语义指派&的能力,显然又是一种非常难以被算法化的识别能力(尽管也并非不可能被算法化)。此外,在复杂的城市治安战环境中,&是否穿平民衣服&也并不是判断恐暴分子的可靠指标。恐暴分子可能穿着偷来的或者仿制的我方军服浑水摸鱼,而己方的特工也可能身穿便衣潜伏在一般群众之中。而当系统自以为看到一个身穿平民衣服的人正在用武器指向一个穿我军军服的人的时候,真正发生的情况却或许是:一个伪装为平民的己方特工正试图消灭一个伪装为己方军人的恐暴分子。
再来看第二条技术路线。虽然目前的人脸识别技术与大数据处理技术都日趋成熟,但是基于以下理由,若仅仅凭借如上技术来判断谁是恐暴分子,恐怕依然是远远不够用的:1、将所有的恐暴分子的信息搜集齐备,基本上是不可能的(譬如,域外地区的人口信息的不完整性,以及恐暴集团成员的高流动性,都会为相关技术的运用制造困难);2、恐暴分子可能使用蒙脸等方式遮蔽脸部信息;3、而在特定光学条件下,系统对于人脸识别的难度也会陡增。
从心灵哲学与认知科学哲学的角度看,这两条技术路线(特别是前一条路线)自身的漏洞各自牵涉到了两个非常重要的哲学问题。第一个问题叫&心灵状态指派&(mental state attribution),第二个问题叫&各向同性&(isotropy)。前一个问题的实质是:如何从目标的外部行为判断出其内部心理状态(比如,某孩童摆弄武器的行为仅仅是出于嬉戏,还是出于真实的敌意)呢?这个问题之所以是具有哲学维度的,乃是因为:一方面,至少在哲学层面上,我们都已知道行为主义的理论(即那种将人类的精神意图系统还原为其外部行为的哲学理论)乃是成问题的(或说得更为学术化一点,我们很难给出对于从行为类型到意图类型的映射关系的完整函数刻画);而事情的另一方面却是:除了从外部行为判断一个目标的内部意图之外,自然的或者人工的识别系统似乎并没有什么别的渠道去了解相关的信息。这就构成了一个矛盾。而要解决这种&信息输入不足&的问题,唯一的办法就是诉诸于更多的背景信息&&比如,在机器凯尔的例子中,关于&恐暴分子中青少年成员比例&的背景知识,恐怕就会对判断&眼前的目标是不是恐暴分子&起到莫大的作用。然而,对于更多信息量的牵涉,却会立即引发&各向同性问题&。
&各向同性&这个看似古怪的术语借自于物理学与化学,原指物体的物理、化学等方面的性质不会因方向的不同而有所变化的特性。而在信息科学与认知科学哲学中,该术语则转指这样的一个问题:既然某件事情与世界上所有的其他事情均有某种潜在相关性(这就类比于物理学家所说的&各向同性&),那么,在当下的问题求解语境中,信息处理系统到底又该如何对这些潜在的相关性进行遴选,以便能以最经济的方式来解决相关问题呢?譬如,中国茶叶的市场价格,究竟会不会对一个中东商人的心脏健康产生影响呢?尽管一般而言两者是不相关的,但在某种潜在的意义上,二者还是有可能发生间接的联系的(譬如,如果该商人在这个市场上已经投入了巨额资金,那么中国茶叶的跌价就会影响他的特定生理指标)。而由此引发的问题却是:对于特定的信息处理系统而言,它在判断某人心脏病发病的原因时,需要不需要考虑中国茶叶的市价呢?而如果中国茶叶的市价的确需要被考虑的话,那么它是否还要考察宋代的官窑与明代的宣德炉在香港拍卖市场上的价格呢?而如果系统如此不断地在巨大的信息检索空间中考察下去的话,它又如何可能在规定的时间内完成诊断呢?不难想见,此类&各向同性&问题亦会在战争环境下得到展现:&机器凯尔&究竟该怎么判断一把日本武士刀到底是与&文物展示&相关,还是与&暴力袭击&相关呢?它该怎么判断一把砍刀是用来砍香蕉的呢,还是用来砍人的呢?而更为麻烦的是,在复杂的城市治安战的环境下,某个物体(玻璃瓶、水管、砖头、门板,等等)都可以与暴力袭击发生潜在的关联,而要在这些潜在的关联之间找到最有可能实现的关联,则会牵涉到海量的计算,并由此使得实时的自动化作战系统的信息处理中心难以负担。(13)
不过,上面的技术困难并非&原则上无法解决的&,因此,它们的存在并不足以促使我们去永远禁止自主化军用平台拥有&开火权&。具体而言,关于如何驯服&各向同性问题&,温莎大学的哲学家兼认知科学家瓜里尼(Marcello Guarini)与美国海军下属的一个认知科学研究项目的主管贝洛(Paul Bello)在其合写的论文《机器人战争:从无平民的战场转移到充满平民的战场后吾辈所面临的挑战》(14)中便提出了相关的技术建议。其要点如下:
第一,为系统设置一个背景知识库K,在其中,系统会预先贮存大量常识知识,如&火箭筒会摧毁软皮军用车辆,却无法摧毁主战坦克&,等等。
第二,通过知觉模块与语义描述模块,获取对于当下场景的描述集S。如在机器凯尔的例子中,这指的便是对于其在视野中所看到的一切的描述。
第三,为系统设置一套逻辑推理规则,以便系统能够从S的一个子集与K的一个子集的逻辑合取中推出新的结论(譬如,从&有人拿起了火箭筒且瞄向了附近的悍马吉普车&与&火箭筒可以摧毁软皮军用车辆&之中,推出&有人有能力摧毁附近的悍马吉普车&)。
第四,以&K+S&为整个系统在处理当下问题时所凭倚的信息检索空间的最大限制,并由此将&各向同性问题&界定为:如何在&K+S&所规定的边界范围之内,尽量将系统的实际信息检索范围缩小到系统的运算负担与战术需求所允许的范围之内。
第五,关于如何缩小上述检索范围,有两个选项。选项甲(即大多数人工智能专家所采用的选项)即诉诸于所谓的&激发传播模型&,亦即假定&K+S&之中的各个记忆要素之间的传播网络是带有丰富的权重规定的(如:&甲要素&与&乙要素&之间的关联权重值较高,而与&丙要素&之间的关联权重值则较低)。这样一来,检索活动将仅仅沿着那些高权重的联系管道进行,而不再理睬那些低权重的管道。在这样的情况下,检索的范围就自然缩小。
第六,选项乙(也便是瓜里尼与贝洛所更为推荐的选项)则是这样的:设置一个&注意力磁&(attentional magnet)P(这是由系统的情绪模块所产生的一个命题),让其调动系统的注意力到P自身或与其有直接语义相关性的对象上去。同时,将在每一个认知回路中输入项(即P与S)与记忆库K之间互动的产物界定为&E&,也就是一个表征&紧急性程度&的新参数(该参数将只取&0&与&1&两个值)。具体而言,该参数取&1&时将激活系统的&杀戮动机激发器&,由此激活开火程序,反之则不会激活之。这也就是说,特定的信息检索机制将进一步启动系统的不同的命题态度(如动机、欲望)的自我指派机制,以便更有效地帮助系统自身作出&开火&与&不开火&之类的重要决定。
不难想见,如果瓜里尼与贝洛的上述算法描述思路被施用于前述&机器凯尔&的话,那么,对于其敌我识别的过程的最终输出而言,产生至关重要影响的便是两个参数:第一,系统的情绪模块产生了怎样的&注意力磁&以便将系统的注意力转向战场的哪些要素上去;第二,系统的内置背景知识是如何描述对象的一般威胁的,以便为系统的&伦理推理方向&提供必要的先验偏置。现在我们就来分别讨论这两个参数的确定机制。按照瓜里尼与贝洛的意见,就对于第一个参数的确定而言,系统的内置情绪模块的工作方式起到了非常明显的作用,因为&同情&之类的情绪会使得系统立即产生诸如&使得平民或者战友免受伤害&之类的内部指令(这也就是前面所说的&P&),并由此使得其计算资源被立即集中到相关的问题求解搜索方向上去。虽然就如何在人工智能系统实现此类&人工情绪&,瓜里尼与贝洛的讨论没有给出一个最终的答案,但从功能主义的抽象视角来看,任何一个能够将特定认知资源集中到特定方向上去的快速切换开关,都能够被视为一个&情绪提供阀&,并由此得到相关算法的模拟。而就对于第二个参数的确定而言,除了人类用户需要为机器提供尽量丰富而准确的关于治安战环境的常识性描述之外,系统设计者也期望系统能够通过机器学习等方式自主更新相关的知识,以便能够为时下的任务提供最为可靠的后台情报支持。
读者可能会问:倘若我们能够将上述技术环节全部实现的话,那么,我们是否能够期望&机器凯尔&不会误杀任何平民呢?很不幸,答案恐怕是否定的。请回顾一下我们在前面为&机器凯尔&所设置的工作目标:尽管我们希望其失误率能够等同于或者低于受过严格训练的人类精英狙击手的水准,但是我们并不期望它能够避免任何误判&&因为世界上根本就不可能存在着任何完全不出错的信息处理系统(无论是人造的系统还是通过自然演化而来的系统)。具体而言,就上文所给出的关于&机器凯尔&的可能操作程序而言,其情绪模块或许就会因为彼此竞争的情绪供应(如对于战友的爱与对于平民的同情)而产生彼此冲突的自我指令,并由此使得系统的问题求解方向陷入混乱;而系统自身的背景知识的缺陷,也会使得其在进行伦理推理时陷入误区。但这里的问题却是:我们是否就要因为此类缺憾所导致的错误&&无论是误杀平民的错误,还是坐视战友被杀而不管的错误&&而否定&机器凯尔&的应用价值呢?依笔者浅见,恐怕这样的结论本身就犯下了某种&人类中心主义&的错误,因为人类战士所犯下的同类错误从来没有构成我们禁止使用人类战士的充分理由。为何我们要对机器战士提出更为苛刻的要求呢?
有的读者或许会说:即使&机器凯尔&的失误率要低于人类狙击手,只要其失误率没有被降到零,我们依然要禁止其投入实用:因为人类战士是法律上的责任主体,其一旦犯错了我们可以用军法对其进行惩罚&&而用以惩罚机器人的法律规章现在还付诸阙如(而且去制定这样的新法律也会显得十分荒谬)。在这样的情况下,为了避免&出了错之后无法找到责任人&的尴尬,最好我们就不要自找麻烦地去部署&机器凯尔&之类的能够自主开火的智能兵器了。
笔者认为,上述批评意见的结论虽然是错的,但其推理内容却并非完全没有合理的成分。诚如洛克霍斯特(Gert-Jan Lokhorst)与霍芬(Jeroen van den Hoven)在论文《军用机器人的责任》(15)中所指出的,用军法去惩罚一个犯错的士兵的确是有意义的,因为这能够让这个士兵感到羞耻,并在部队中产生&以儆效尤&的效果。但用军法惩罚一台机器却是于事无补的,这既不能让其感到羞耻,也不会让别的机器感到害怕。而在后一种情形中,我们真正需要做的事情乃是:检讨此类事故发生的原因,并尽量杜绝此类错误再次发生的几率。
不过,这也并不是说一旦机器人战士发生误杀事件后,就不会有相关的法律诉讼发生了&&因为即使是自主性机器人的运作,毕竟是以人类建造者与人类指挥官的活动为前提的。依据笔者的浅见,一旦此类错误发生后,相关的调查委员会就必须按照如下的排除程序展开&责任指派工作&:
1、排除电气故障意义上的机器硬件故障(若无法排除,寻找硬件的生产与维护部门);
2、检查发生事故前的机器代码运行情况,排除系统被黑客恶意入侵的情况(若无法排除,寻找攻击源,并调查为何反黑客入侵软件为何没有发挥作用);
3、检查系统得到的作战指令本身是否包含违背作战条例与反伦理的内容(若确定指令本身有问题,寻找发出此类指令的人类指挥员);
4、调查当时战争信息的实际复杂程度,是否越过了此类机器能够处理的战场信息的复杂程度的上限。如果的确超过了后者的上限,则调查人类指挥员是否可能预估到战争信息的复杂性已经超越了机器的信息处理能力。若指挥员有可能预估到此类情况,则调查为何指挥员不去指派人类战士来处理此类问题。
从上面列出的这个挂一漏万的责任确认流程上来看,确认一台犯错的军用机器人的背后的责任人的排查过程,在实质上与确认一把走火杀人的自动步枪背后的责任人的流程并无二致(尽管从技术上看,前者肯定要繁琐得多)。因此,即使会犯错的机器人投入了战场,我们也不会遇到&找不到负责者&这样的尴尬问题。换言之,&机器人不是责任主体&这句话即使是对的,也不构成我们禁止此类设备拥有开火权的充分理由。
有的读者或许还会反驳说:倘若经过缜密的调查,我们还是找不到误伤事件的责任人,又该如何呢?
面对这样的情况,笔者认为恰当的处理程序是:通过逼真的三维模拟重现技术,让优秀的人类战士在与被调查事故极为类似的环境下进行虚拟的问题处置,然后比对人类的表现与机器的表现。如果发现机器所犯下的错误是绝大多数人类战士都是可以避免的,那么这就说明相关系统的设计有重大缺憾,军方可以停止相关装备的使用,并责令生产厂家收回产品;如果我们发现即使是大多数人类战士也无法避免机器战士所犯下的错误,那么我们便有理由相信此类错误的发生乃是出于纯粹的&坏运气&。若是如此的话,那么就不该有任何人为此事负责。
虽然&坏运气&这一措辞或许未能满足一部分人的理智好奇心,但是需要指出的是,&武运&本身就是一切战争活动的有机组成部分之一。军用机器人的介入其实是无法消除战争中的&运气&成分的,就像历史上的航母、导弹的出现也未曾消灭&运气&一样。从经验角度看,在人类既有的战争实践中,被不知从哪里(很可能是从友军那里!)飞来的流弹射死的倒霉士兵不知道有几千、几万,但此类&坏运气&案例最终被纳入司法调查程序的又有几何呢?而谁又能够保证机器战士的介入,一定就会增加&&而不是减少&&这些不幸的发生呢?此外,从根本上说,消除所有这些误伤事件的最终解决方法,难道不正是&不去发动或者参与战争&吗?&&但是,这个根本解决方案的执行者,难道不正是人类(而不是机器)吗?因此,面对那些的确很难被恰当归因的战场不幸,我们又有何充分的理由去迁怒于那些具有自主开火权的机器战士的出现呢?
非官方的&机器人战士&所带来的伦理风险
行文至此,笔者一直预设军用机器人的研发与使用主体都是&正常国家&。所谓&正常国家&,泛指各种国际公约的缔约国,而一般而言,这些国家对于人类的基本价值规范(如在战争中要尽量避免误伤平民)均有基本的尊重。也正因为上述预设,所以笔者还预设了:研发方在研发过程中会注重对于机器人的&伦理推理能力&的算法化,由此使得其行为输出能够尽量符合正常人的价值观。
但是,没有任何理由使得我们排除正常国家之外的行为主体去研发此类机器人的可能性。具体而言,具有相当程度的智力资源支持的恐暴组织,也可能去着力研发此类兵器,以便为针对平民的恐怖细节制造便利。需要注意的是,由于恐暴组织具有的价值观与正常人往往相反,所以,他们为机器人设置的&伦理算法&或许也是相反的。譬如,当我们希望机器人拥有的算法能够降低平民的伤亡的时候,而他们或许会希望机器人拥有的算法能够协助其杀死尽量多的平民。此外,由于&滥杀无辜&本身的技术难度要远远小于&精准打击&(因为前者的模式识别系统远要比后者来得简单与便宜),因此,恐暴分子的这种毫无道德底线的设计思路,反而可能使得其&产品&能够被更容易地制造出来,并由此为世界的和平带来一定的威胁。
但是,在笔者看来,即使上述威胁的存在是不容否认的,这一威胁也不构成我们去阻止&正常国家&研发智能军用机器人的理由。这又是因为:
其一,即使我们通过国际公约的方式,禁止了智能军用机器人的研发,这样的禁令也是对恐暴组织无效的,因为恐暴组织一向是无视任何国际公约的效力的。
其二,如果具备了正常的伦理推理能力的官方军用机器人不能够得到充分的发展与充分部署的话,那么这就等于让我们自行废弃了与恐怖分子作斗争的一种有力工具,这反而会降低动荡地区的安全指数。
第三,即使就恐怖分子所掌握的土造智能武器而言,若它们不与诸如炸药、有毒气体、枪支等传统武器联接,恐怕也不会对群众造成实质性的伤害。因此,对于此类武器的严格监控依然是阻止恐怖袭击发生的重要环节。与之相比较,对于智能编程技术的控制则显得较为困难,因为此类技术同时也被广泛运用于国民经济的各个领域。
细心的读者或许还会说,在官方许可的范围外自行改装军用机器人的,未必一定就是恐暴组织成员。譬如,如果人工智能技术的发展能够使得家用机器人走进千家万户的话,那么,至少在一些允许民众合法持枪的国家里(如美国),动手能力强的人类用户就可以自行将其改装为&武装版&,以便为自己提供一定的安全护卫。而由此所导致的治安局势的全面复杂化,则或许会使得传统的司法体系感到难以应对&&譬如,如果此类民用版武装机器人泛滥的话,那么,很多谋杀案就可以通过伪装为&工业事故&的形式来进行,而警方在追索此类案件的线索时也会苦于取证之难(因为诸如&提取指纹或DNA&之类的传统取证手段,对于机器人来说是很难奏效)。这或许也会为大量&无头案&的产生打开方便之门,并由此使得整个社会的安全指数下降。
对于上述质疑,笔者也有如下几点回应:
第一,即使在允许公民合法持有枪支的美国(遑论不允许大多数平民持枪的其它国家),相关的立法部门也可以考虑通过立法禁止私人在没有国家特许的情况下将非武装机器人改装为武器机器人,以保证官方对于军用机器人技术的管控。
第二,建立民用机器人与特定用户的生物学信息之间的绑定制度,甚至可以考虑建立所有民用武器与特定用户的生物学信息之间的绑定制度(按照该制度,只有用户本人的生物学信息才可以开启此类设备的运作)。这就为犯罪分子利用他人的机器人作案制造了技术障碍。
第三,进一步研发民用机器人的伦理推理模块,使得其能够具备一定意义上的&是非明辨能力&,譬如,使得其能够自主判明一些典型的犯罪行为的性质。这样一来,这类机器人不仅能够抵制用户以外的罪犯的犯罪行为,甚至还可能对用户本人的犯罪行为进行抵制,并进而提高相关犯罪行为的技术门槛。
第四,虽然家用机器人的记忆库不可能不随着新信息的涌现而进行实施实时更新,立法部门依然需要责成生产厂家设置技术门槛,以防止用户对产品的伦理推理模块的基本算法进行修正(譬如,一旦发现用户做出了此类修正,机器人会立即向公共安全部门发出警报)。
而在上述种种举措之中,最具哲学、科学与技术方面的挑战性的,莫过于对于机器人自身的伦理推理能力的算法化(这也正是笔者在前节中花费大量篇幅予以讨论的问题)。而也恰恰经由这种算法化,吾辈才可能使得机器人成为&纯粹的工具&与&伦理主体&之间的某种过渡性质的人工制品,并由此使得其具备某种人类&德性&的雏型。
(本文系国家社科基金重大项目&基于信息技术哲学的当代认识论研究&成果,项目编号:15ZDB020)
1Wallach, W. and Allen, C., Moral Machines: Teaching Robots Right from Wrong, Oxford: Oxford University Press, 2010.
2Hallgarth, M.W., "Just War Theory and Remote Military Technology: A Primer", in Strawser, B. J. (ed). Killing by Remote Control: The Ethics of an Unmanned Military, Oxford: Oxford University Press, p. 26.
3此表根据上书(pp. 30-31)编制。
4Altman, J., "Preventive Arms Control for Uninhabited Military Vehicles", in Capurro, R. and Nagenborg, M. (eds.), Ethics and Robotics, Heidelberg: Akademische Verlagesgesellschaft AKA GmbH, 2009, pp. 69-82.
5Lin P. et al., "Robots in War: Issues of Risks and Ethics" , in Capurro, R. and Nagenborg, M. (eds.): Ethics and Robotics, Heidelberg: Akademische Verlagesgesellschaft AKA GmbH, 2009, pp. 49-67.特别是该书p. 62处的讨论,与正文讨论最为相关。
6Sharkey, N., "Killing Made Easy: From Joysticks to Politics", in Lin, P. et al. (eds.), Robot Ethics: The Ethical and Social Implications of Robotics, Cambridge, Massachusetts: The MIT Press, 2012, pp. 111-118.与正文特别相关的讨论见pp. 111-112.
7Lin P. et al., "Robots in War: Issues of Risks and Ethics" , in Capurro, R. and Nagenborg, M. (eds.), Ethics and Robotics, Heidelberg: Akademische Verlagesgesellschaft AKA GmbH, 2009, pp. 49-67.特别是该书p. 57处的讨论,与正文讨论最为相关。
8Weber, J., "Robotic Warfare, Human Rights & the Rhetorics of Ethical Machines", in Capurro, R. and Nagenborg, M. (eds.), Ethics and Robotics, Heidelberg: Akademische Verlagesgesellschaft AKA GmbH, 2009, pp. 83-104.特别注意p. 88处的讨论。
9Plaw, A., "Counting the Dead: The Proportionality of Predation in Pakistan", in Strawser, B. J. (ed), Killing by Remote Control: The Ethics of an Unmanned Military, Oxford: Oxford University Press, pp. 126-153.
10此表的数字来源,参加上书pp. 138-139; p. 145; p. 148。
11Sparrow, R., "War without Virtue?", in Strawser, B. J. (ed), Killing by Remote Control: The Ethics of an Unmanned Military, Oxford: Oxford University Press, pp. 84-105.
12转引自[美]斯科特&安德森:《阿拉伯的劳伦斯:战争、谎言、帝国愚行与现代中东的形成》,陆大鹏译,北京:社会科学文献出版社,2014年,第78页。
13&各向同性问题&的另外一个叫法是&框架问题&(The Frame Problem),对此,笔者曾在别的地方有过专门的技术化讨论。请参看:徐英瑾:《一个维特根斯坦主义者眼中的框架问题》,《逻辑学研究》2011年第二期,第93~137页;Xu, Yingjin and Wang,Pei, "The Frame Problem, the Relevance Problem, and a Package Solution to Both", Synthese, Volume 187, Issue 1 Supplement, pp. 43-72;徐英瑾:《心智、语言和机器&&维特根斯坦哲学和人工智能科学的对话》,北京:人民出版社,2013年(特别是该书的第七章与第八章)。
14Guarini, M. and Bello, P., "Robotic Warfare: Some Challenges in Moving from Noncivilian to Civilian Theaters", in Lin, P. et al. (eds.), Robot Ethics: The Ethical and Social Implications of Robotics, Cambridge, Massachusetts: The MIT Press, 2012, pp. 129-144.
15Lokhorst, G-J. and Hoven, J., "Responsibility for Military Robots", in Lin, P. et al. (eds.), Robot Ethics: The Ethical and Social Implications of Robotics, Cambridge, Massachusetts: The MIT Press, 2012, pp. 145-156.
责 编/马冰莹
Technology and Justice: Artificial Intelligence in the Future War
Xu Yingjin
Abstract: Currently, the ethical after-effect due to the military use of artificial intelligence technology has evoked various criticisms from the ethical point of view, for example, "the deployment of these weapons would like to undermine the international arms control system and thereby facilitate the undesired proliferation of the relevant technologies", and "the deployment of them would like to make killing much easier and thereby threaten the lives of more noncombatants". However, these criticisms have often set double standards for evaluating the traditional military tactical platforms and the tactical platforms using artificial intelligence, and deliberately exaggerated the overall significance of the latter in changing the global security pattern. To truly make the ethical after-effect of the military use of artificial intelligence technology accord with the existing value system of the human world, the main measure is not to simply ban the R&D of such kind of equipment but to make such equipment have "ethical reasoning" in the sense of the humans. In the R&D process, how to solve the "isotropic" problem will also become the focus.
Keywords: military robotics (technology), artificial intelligence, ethics, isotropy, mental states attribution
徐英瑾,复旦大学哲学学院教授、博导。研究方向为认知科学哲学、人工智能哲学、维特根斯坦哲学、英美知识论、英美哲学与当代日本哲学比较研究。主要著作有:《维特根斯坦哲学转型期中的&现象学&之谜》《心智、语言和机器&&维特根斯坦哲学与人工智能科学的对话》等。
[责任编辑:马冰莹]}

我要回帖

更多关于 美国现实版后天 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信