运用政治知识,怎样降低银行 风险 人工智能能的风险

IEEE首份AI报告:利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景(全文)
[导读]不经意间,人工智能(AI)成为2016年主流话题之一。有关技术进步的报道,充斥着媒体。AI将深刻影响生活、社会、经济、法律、政治、全球格局等诸多方面。AI应用的拓展和加深,使得AI伦理问题日益突出,成为关注焦点。
  现在,美国、英国等都开始重视AI伦理问题了。今年以来,美国政府连发三份AI报告,其中提出了美国国家人工智能战略,其中包括理解并解决潜在的法律、道德、社会等影响。英国政府连发二份AI报告,呼吁重视并研究AI伦理与法律问题。  《麻省理工科技评论》评选的2016年最佳图书包括以AI伦理为主题的著作:《数学武器:大数据如何加剧不平等、威胁民主》和《发明伦理:科技和人类未来》。诸如技术性失业、致命性自主武器、算法公平、道德判断、价值一致性等AI伦理问题需要获得深入研究。  2016年12月,标准制定组织IEEE发布《合伦理设计:利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景(第一版)》,旨在鼓励科技人员在AI研发过程中,优先考虑伦理问题。这份文件由专门负责研究人工智能和自主系统中的伦理问题的IEEE全球计划下属各委员会共同完成。这些委员会由人工智能、伦理学、政治学、法学、哲学等相关领域的100多位专家组成。这份文件包括一般原则、伦理、方法论、通用人工智能(AGI)和超级人工智能(ASI)的安全与福祉、个人数据、自主武器系统、经济/人道主义问题、法律等八大部分,并就这些问题提出了具体建议。  一、一般原则  一般原则涉及高层次伦理问题,适用于所有类型的人工智能和自主系统。在确定一般原则时,主要考虑三大因素:体现人权;优先考虑最大化对人类和自然环境的好处;削弱人工智能的风险和负面影响。  原则之一:人类利益(Human Benefit)  人类利益原则要求考虑,如何确保AI/AS不侵犯人权。为了实现AI/AS尊重人权、自由、人类尊严及文化多样性,在使用年限内是安全、可靠的,一旦造成损害必须能够找出根本原因(可追溯性)等目的,应当构建治理框架,包括标准化机构和监管机构,增进公众对AI/AS的信任;探索将法律义务“翻译为”充分理解的政策和技术考虑事项的方法论。  原则之二:责任(Responsibility)  责任原则涉及,如何确保AI/AS是可以被问责的。为了解决过错问题,避免公众困惑,AI系统必须在程序层面具有可责性,证明其为什么以特定方式运作。  第一,立法机构/法院应当阐明AI系统开发和部署过程中的职责、过错、责任、可责性等问题,以便于制造商和使用者可以知晓其权利和义务分别是什么;  第二,AI设计者和开发者在必要时考虑使用群体的文化规范的多样性;  第三,当AI及其影响游离于既有规范之外时,利益相关方应当一起制定新的规范;  第四,自主系统的生产商/使用者应当创建记录系统,记录核心参数。  原则之三:透明性(Transparency)  透明性原则意味着,自主系统的运作必须是透明的。AI/AS是透明的意味着,人们能够发现其如何以及为何做出特定决定。AI的不透明性,加上AI开发的去中心化模式,加重了责任确定和责任分配的难度。透明性对每个利益相关方都意味重大。  第一,对使用者,透明性可以增进信任,让其知道AI系统可以做什么及其这样做的原因;  第二,对AI/AS批准和认证机构,透明性则确保AI系统可以接受审查;  第三,如果发生事故,透明性有助于事故调查人员查明事故原因;  第四,事故发生之后,参与审判的法官、陪审团、律师、专家证人需要借助透明性来提交证据,做出决定;  第五,对于自动驾驶汽车等颠覆性技术,一定程度的透明性有助于增强公众对技术的信心。  因此,需要制定透明性标准,阐明可测量的、可测试的透明性程度。但对于不同的利益相关方,透明性的具体要求是不同的。  原则之四:教育和意识(Education and Awareness)  教育和意识原则涉及,如何扩大AI/AS技术的好处,最小化其被滥用的风险。在AI/AS越来越普及的时代,需要推进伦理教育和安全意识教育,让人们警惕AI/AS被滥用的潜在风险。这些风险可能包括黑客攻击、赌博、操纵、剥削等。  二、伦理问题:如何将人类规范和道德价值嵌入AI系统  由于AI系统在做决定、操纵其所处环境等方面越来越具有自主性,让其采纳、学习并遵守其所服务的社会和团体的规范和价值,是至关重要的。可以分三步来实现将价值嵌入AI系统的目的:  第一,识别特定社会或团体的规范和价值;  第二,将这些规范和价值编写进AI系统;  第三,评估被写进AI系统的规范和价值的有效性,即其是否和现实的规范和价值相一致、相兼容。  (一) 为AI系统识别并确定规范和价值  首先,应当明确需要嵌入AI系统的规范和价值是什么。法律规范一般是成文的、形式化的,容易得到确认。但社会和道德规范比较难确认,它们体现在行为、语言、习俗、文化符号、手工艺品等中。更进一步,规范和价值不是普世的,需要嵌入AI的价值应当是特定社会或团体中针对特定任务的一套规范。  其次,道德过载(Moral Overload)问题。AI系统一般受到多种规范和价值约束,诸如法律要求、金钱利益、社会和道德价值等,它们彼此之间可能发生冲突。在这些情况下,哪些价值应当被置于最优先的地位?  第一,优先考虑广大利益相关方群体共同分享的价值体系;  第二,在AI研发阶段确定价值位阶时,需要有清晰、明确的正当理由;  第三,在不同情境下或随着时间的推移,价值位阶可能发生变化,技术应当反映这一变化。  第三,数据或算法歧视问题。AI系统可能有意或无意地造成对特定使用者的歧视。一方面,要承认AI系统很容易具有内在歧视,意识到这些歧视的潜在来源,并采取更加包容的设计原则;强烈鼓励在整个工程阶段,从设计到执行到测试再到市场推广,尽可能具有广泛的包容性,包容所有预期的利益相关方。另一方面,在解决价值冲突时保持透明性,尤其需要考虑脆弱、易被忽视的人群(儿童、老年人、罪犯、少数民族、贫困人群、残障人群等)的利益;在设计过程中,采取跨学科的路径,让相关专家或顾问团体参与其中。  (二) 将规范和价值嵌入AI系统  在规范体系得到确认之后,如何将其内置到计算机结构中,是一个问题。虽然相关研究一直在持续,这些研究领域包括机器道德(Machine Morality)、机器伦理学(Machine Ethics)、道德机器(Moral Machine)、价值一致论(Value Alignment)、人工道德(Artificial Morality)、安全AI、友好AI等,但开发能够意识到并理解人类规范和价值的计算机系统,并让其在做决策时考虑这些问题,一直困扰着人们。当前主要存在两种路径:自上而下的路径和自下而上的路径。这一领域的研究需要加强。  (三) 评估AI系统的规范和价值是否和人类的相符  需要对嵌入AI系统的规范和价值进行评估,以确定其是否和现实中的规范体系相一致,而这需要评估标准。评估标准包括机器规范和人类规范的兼容性、AI经过批准、AI信任等。  需要在人类和AI之间建立信任。这涉及两个层面。一方面,就使用者而言,AI系统的透明性和可验证性对于建立信任是必要的;当然,信任是人类-机器交互中的一个动态变量,可能随着时间推移而发生变化。另一方面,就第三方评估而言,第一,为了促进监管者、调查者等第三方对系统整体的评估,设计者、开发者应当日常记录对系统做出的改变,高度可追溯的系统应具有一个类似飞机上的黑匣子的模型,记录并帮助诊断系统的所有改变和行为;第二,监管者连同使用者、开发者、设计者可以一起界定最小程度的价值一致性和相符性标准,以及评估AI可信赖性的标准。  三、需要指导伦理研究和设计的方法论  人工智能应当符合人类价值观,服务于人类,服务于人类社会和经济的发展。以人类价值观为导向的方法论是人工智能设计的核心,其中最重要的是对人权的保护。  (一) 跨学科的教育和研究  将应用伦理学整合到教育和研究中,解决AI/AS的问题,需要跨学科的路径,需要融合人文学科、社会学科、科学和工程学等。首先,在大学教育阶段,伦理学需要成为计算机相关专业的一个核心课程,并建立跨文化、跨学科的课程体系。其次,为了研究AI/AS的特有问题,需要建立跨学科、跨文化的教育模型,在学术界和产业界,以多学科合作的模式塑造技术创新的未来。最后,需要区别嵌入AI设计中的不同文化价值,为了避免文化歧视,不能仅仅考虑西方影响下的伦理基础,其他文化的伦理/道德、宗教、政治传统也需要加以考虑。  (二) 商业实践与人工智能  首先,产业界缺乏基于价值和伦理文化的实践。业界急切想要开发AI/AS并从中赚钱,却甚少考虑在其开发、使用过程中如何建立伦理系统和实践。  其次,缺乏价值层面的领导角色。创新团队和工程师在AI设计过程中,得不到如何以及尊重什么人类价值的指引。  再次,缺乏提出伦理问题的赋权。在一个组织内,工程师和设计团队不能就其设计或设计方案提出伦理问题。需要新形式的行为准则,以便于个体可以在充分信任的环境中,自由谈论、分享其见解和看法。  第四,科技圈缺乏主人翁意识和责任心。科技圈往往不认为关注伦理问题是其职责,这些问题一般由公众、法律圈和社会科学圈提出。工程科学中的多学科伦理委员会应当常态化,负责跟进研究和产品中的伦理问题及其影响。  最后,需要纳入利益相关者和从业者。从业者和AI、机器人一道工作,可以表达其诉求,也可以提供洞见。  (三) 缺乏透明性  AI/AS制造过程缺乏透明度,给落实和监督机器伦理提出了挑战。  首先,AI的限制和假设通常未被合理记录,什么数据被处理以及如何处理也是不明确的。记录文档应满足可被审计、容易获取、有意义、可读取等要求。  其次,算法缺乏监督。AI系统背后的算法是不透明的,这导致终端用户不知道算法是如何得出结论的。一方面,需要建立监督AI制造过程的标准,避免给终端用户带来伤害;另一方面,政策制定者可以限制计算机推理,以免其过分复杂,造成人们难以理解的局面。  再次,缺乏独立的审查机构。需要引入独立的审查机构来给出指导意见,评估人工智能的安全性及其是否符合道德标准。  最后,“黑箱”软件的使用问题。深度机器学习过程是“黑箱”软件的一个重要来源。科技人员必须承认并评估“黑箱”软件中的伦理风险,并且在使用“黑箱”软件服务或组件过程中,特别关注伦理问题。  四、通用人工智能和超级人工智能的安全与福祉  首先,随着AI系统越来越强大,其不可以测的或非故意的行为将变得越来越危险。为此,需要研究具体的人工智能安全问题;确保人工智能系统的透明度;开发安全、可靠的环境来开发、测试具有潜在安全风险的AI系统;在输入错误、环境改变等情况下,确保AI系统平稳失效;确保AI系统可以被操作者关闭或改进。  其次,改进安全性以适应未来更加多才多艺的AI系统可能面临困难。AI研发团队在开发系统时,需要提前采取相应的安全防范措施。  第三,AI研发者未来会面临更加复杂的伦理和技术安全问题。为了应对这一问题,可以考虑设立伦理审查委员会来支持和审查研发者的工作项目。目前、Google DeepMind、Lucid AI等机构已经设立了伦理审查委员会。该审查委员会由具有不同知识背景和经验的专家组成,在审查时需要参考一定的行业标准,并最大限度地考虑安全和伦理问题。  最后,人工智能系统未来会影响世界的农业和工业革命。人工智能系统的技术成功不仅意味着巨大的商业价值,其对于世界范围内的政治格局也将产生深远影响。  五、个人数据与个体访问控制  数据不对称是个人信息保护的一个重大道德困境。在算法时代,AI系统对个人数据的使用不断增强。为了解决不对称问题,需要完善个人信息保护政策。  (一) 个人数据定义  首先,个人数据应该包括对个体身份的定义和说明,表现其独特的偏好与价值。个体应该能够获取充分可信的身份验证资源去证明、核实和广播其身份信息。  其次,个人识别信息应被定义为任何能够合理关联到一个个体的相关数据,不管是实在的、数字的还是虚拟的。个人识别信息应被认定为个人拥有绝对控制权的一项资产(Asset),法律应给予优先保护。  最后,个体对其个人数据应该拥有比外部行为者更大的控制权限。  (二) 重新定义个人数据获取与知情同意  第一,需要建立实用的、可执行的程序,以便于设计者和开发者可以借助经规划的隐私(Privacy-by-Design)、默认的隐私(Privacy-by-Default)等方法论来保护隐私。此外,差别化隐私(Differential Privacy)的范式也为开发者和设计者将隐私保护融入其提供的服务中提供了便利。差别化隐私不等同于数据的匿名化。相反,差别化隐私利用哈希(Hashing)、次级抽样、噪声注入等技术使个人信息模糊化。  第二,开放的标准和互相操作性对于社会和个体在生态系统之间自由转换至关重要。  第三,通过在个体与外部行为者之间就其个人信息创建一个决策矩阵,个人数据就可以充当两种用途:在一般分析中处理大量匿名化数据,在个性化服务提供中处理少量个人识别信息。社会,团体以及研究机构对个人数据的需求将会整合到这个决策矩阵中,同时考虑安全、角色以及权利管理。例如,一个医生为了治疗病人可能需要可辨认的个人数据,但是一个研究者可能只需要匿名的统计数据。此外,还需要综合考虑使用场景的不同,采取不同的管理机制。  第四,数据分析的自动化和智能化,使得分析者及数据使用者都可能不知道在数据的分析过程中,哪些数据被使用及如何被使用。所以,不能只关注知情同意本身,也要把关注点放在数据收集和使用上。同时,数据使用的限制也十分重要,而且更加具有可操作性。  第五,一些常见数据的累积可能导致对用户做出敏感结论。为了应对这些复杂性风险,需要灵活应变的知情同意条款。必须采取措施将非敏感个人数据的收集置于监管之下,防止这些信息被用来做出对信息所有者不利的结论。同时,应赋予个人随时终止收集这些信息的权利。  (三) 个人数据管理  在算法时代,想要维持个体对其自身数据的控制权,就需要延伸身份保证范式(Identity Assurance Paradigm),将算法工具作为个体在数字和现实世界中的代理人或者守护者。有人认为个体对其自身数据的绝对控制,可能阻碍科技创新与公共福利;然而与此相反,数据分享方式的创新,使得二者可以共存,而并不是非此即彼。算法守护平台可被用来帮助个体分析和管理其个人信息。这样的算法守护者(Algorithmic Guardian)能够根据不同的情况,设定不同的使用权限,同时管理个人同意与不同意分享的信息。  六、重构自主武器系统(AWS)  自主武器系统相比其他自主系统以及传统武器,有着自身额外的道德影响。概括来讲,人类可以有效控制AWS是十分重要的。  具体来说,首先,应该确保自主武器系统的利益相关方都能够对自主武器系统领域的相关定义保持准确的理解。其次,自主武器系统的设计者应使自主武器系统处于人类有效控制之下,或者半自动、半人类控制之下。同时需要审计追踪机制来确保这些控制可以有效运行。再次,该自主武器系统的利益相关者,必须能够全方位了解该系统。最后,需要专业的伦理规则来让设计者知道哪些产品是自主武器系统,以及哪些产品可以被用做自主武器系统,并确保创造出这些武器系统的人了解这些武器的影响。因为有些自动化武器十分难以识别,然而却可能给社会带来极大危害,所以需要专业的伦理规则确保这种情况不会发生。  七、经济/人道主义问题  (一) 自动化和就业  首先,媒体对人工智能和自主系统的误读令公众感到困惑。很多分析和消息(包括虚假消息)存在严重的简单化倾向,无益于开展客观讨论。呼吁建立国际性的、独立的信息交换中心,适当传播客观统计数据、事实调查情况,并向媒体、政策制定者、社会公众和其他利益相关者公布机器人和人工智能对工作、增长和就业结构的影响。  其次,不能仅从市场角度探讨自动化问题。机器人和人工智能的影响不仅限于市场和商业模式领域。机器人和人工智能系统的应用,还将对安全、公众健康、社会政治等方面产生影响。这种影响也将扩散至全球社会。因此,有必要从全球整体角度考虑产品和流程创新,及其带来的更为广泛的影响。  再次,应重点分析自动化和人工智能对就业结构造成的变化,而不仅仅关注可能受到影响的工作数量。  第四,目前的技术变化速度将对就业结构的变化产生深刻影响。为使劳动力适应这种变化,应采取更为主动的措施,包括教育培训等。  第五,新兴技术应当受到监管,以使其对社会产生的不利影响最小化。需要采取灵活的治理方式。立法和人工智能政策必须具有充分的灵活性,以便与技术的快速发展保持一致。同时,规则和法规应保护社会价值并促进创新,不应对创新造成不必要的阻碍作用。考虑到这些问题,政府、产业和民间组织之间的密切合作尤为重要。  (二) 可责性和平等分配  第一,人工智能和自主技术在世界范围内的可得性不均。需确保AI/AS技术的效益在世界范围内的公平分配。应特别为欠发达国家提供机器人和自主系统的培训、教育和机会。  第二,缺乏获取和理解个人信息的渠道。一方面,应关注个人数据中的个体同意、侵犯隐私、损害或歧视等问题,并采取标准化措施。另一方面,人道主义者有责任教育人们,他们的数据一般将作何用,数据的开放和共享可能带来什么。此外,应开展关于数字隐私的教育活动,帮助弱势群体成为更懂数字技术的人。  (三) 赋予发展中国家从人工智能获益的能力  围绕AI/AS的讨论大部分出现在人们能够获得适当的金融服务和平均生活水平更高的发达国家中。在这些系统的开发和应用中,迫切需要避免技术偏见、阶级化和排斥,覆盖更广泛的人口和社群。一方面,在IEEE全球计划中提升发展中国家的参与和代表,推动形成便于包容发展中国家参与的条件。另一方面,AI/AS的出现加剧了发达国家和发展中国家的经济和权力结构差异;因此,应建立相应机制,提高权力结构的透明度,公平分享机器人/AI带来的经济和知识成果。促进发展中国家的机器人/AI研究和开发。确保发展中国家的代表参与其中。  八、法律  在发展早期阶段,人工智能和自主系统(AI/AS)带来了许多复杂的伦理问题。这些伦理问题往往直接转化为具体的法律挑战,或是引发复杂的连带法律问题。每个伦理问题一般都涉及相关法律问题。  (一) 提升AI系统的可责性和可验证性  第一,应将人工智能系统设计为能够向用户显示其行为背后的记录程序,能够识别不确定性的来源,并能够说明其所依赖的假设条件。  第二,在某些情况下,人工智能系统应能够向用户主动告知此类不确定性。  第三,由于潜在的经济和人身损害风险较高,应降低主动告知用户风险的门槛,并扩大主动披露的范围。  第四,设计人员在编写代码时,应充分利用涉及可追责性和可验证方面的计算机科学。  第五,适时考虑并审查引入新的法律法规的必要性,包括在新的AI/AS技术推出之前,先进行测试,并经适当国内或国际相关机构批准的规则。  (二) 确保人工智能的透明度并尊重个人权利  政府决策的自动化程度日益提高,法律要求政府确保决策过程中的透明度、参与度和准确性。当政府剥夺个人基本权利时,个体应获得通知,并有权利提出异议。关键问题在于,当基于算法的人工智能系统做出针对个人的重要决定时,如何确保法律所承诺的透明度、参与度和准确性得以实现。  第一,政府不能使用无法提供决策和风险评估方面的法律和事实报告的AI/AS。必须要求AI/AI具备常识和解释其逻辑推理的能力。当事人、律师和法院必须能够获取政府和其他国家机关,使用AI/AS技术生成和使用的全部数据和信息。  第二,人工智能系统的设计应将透明性和可追责性作为首要目标。  第三,应向个体提供向人类申诉的救济机制。  第四,自主系统应生成记载事实和法律决定的审计痕迹(Audit Trails)。审计痕迹应详细记载系统做出每个决策过程中适用的规则。  (三) AI系统的设计应保证由系统导致的损害具备法律可追责性  大部分法律法规将人类是最终的决策者作为一个基本假设。随着自主设备和人工智能的日益复杂化和普及化,情况会发生变化。可以在以下建议中进行选择,目的是为归责原则的未来发展提供尽可能多的建议。  第一,设计人员应考虑采用身份标签标准,没有身份标签将不被准入,以保持法律责任链条的明确性。  第二,立法者和执法者应确保AI系统不被滥用,一些企业和组织可能将AI系统作为逃避责任的手段。应考虑出台相应法规,建立充足的资本金或保险机制,使AI系统可以就其造成的伤害和损失承担责任。  第三,高昂的诉讼成本和过高的举证标准,可能阻碍受害者向AI造成的损害进行追偿,因此应考虑引入类似于工伤赔偿的支付体系。可采用较低的必要举证标准:受害者只需证明实际伤害或损失,并合理证明伤害或损失是由AI造成的。  第四,应要求使用和制造AI的公司制定书面政策,规定AI如何使用、谁有资格使用AI、操作人员需接受何种培训,以及AI能够为操作人员和其他主体带来什么,这有助于更准确地理解AI能为人类带来什么,并保护AI制造企业免受未来可能引起的诉讼纠纷。  第五,不应自动将责任划归给启动AI的人。如果在AI的操作中需将责任划分给个人,那么AI运行中的监督者或管理者应作为承担责任的主体,而非必然由启动AI的个人承担责任。  第六,如果应用AI的主要目的是提高作业效率或消除人为错误,人类对AI活动进行监督则是必要的。如果AI应用的主要目的是为人类活动提供便利,如自动驾驶汽车,那么要求人类对AI活动进行监督则有悖于AI应用的目的。  第七,应对知识产权领域的法规进行审查,以明确是否需对AI参与创作的作品保护方面的规定做出修订。其中基本的规则应为,如果AI依靠人类的交互而实现新内容或发明创造,那么使用AI的人应作为作者或发明者,受到与未借助AI进行的创作和发明相同的知识产权保护。  (四) 以尊重个人数据完整性的方式设计并应用自主和智能系统  人工智能增加了个人数据完整性方面的风险。除个人隐私之外,消费者也担心数据的完整性问题,包括数据被黑客攻击、滥用,甚至被篡改的风险。虽然这个问题不是人工智能领域独有的,但是人工智能加重了此类风险。一般来说,应鼓励以确保数据完整性为目标的研究/措施/产品,在不同情形中明确不同类型数据的所有权人。  结 语  在AI发展史上,2016年绝对是光辉与荣耀的一年,见证了太多AI光明与光彩的一面,阿尔法狗、无人驾驶汽车、语音识别、聊天机器人等等。然而,在这些光彩之下,是AI以理性代理人的身份参与人类社会各种事务之后所带来的伦理和法律问题。AI作为决策者,至少是决策辅助者,在金融、教育、就业、医疗、信赖、刑事执法等诸多领域开始扮演一个显著的角色。人们不禁要问,AI能够确保公平吗?AI是否会给当事人带来损害?此外,诸如黑客攻击、剥削、操纵等AI滥用问题也开始浮出水面。  数据科学家凯西•欧尼尔在其著作《数学武器:大数据如何加剧不平等、威胁民主》中,将造成歧视、个体损害等不利后果的人工智能称为“杀伤性数学武器”(Weapons of Math Destruction),并因其不透明性、规模效应及损害性而应当引起足够关注。算法和人工智能作为一个数学武器,如果利用不当,其给个体和社会带来的危害将远大于传统武器。因此,关注AI的伦理和法律问题,在AI研发过程中考虑这些问题,正成为一个趋势。未来,AI技术将需要以跨学科的方式研发,其不仅仅是技术人员的事,不考虑社会规范、伦理、价值的AI设计已不现实。无论是通过跨学科的审查委员会,比如谷歌的DeepMind和Lucid AI已经设立了伦理审查委员会,还是通过其他方式,AI开发将更多以融合人文学科、社会学科、科学和工程学等跨学科的方式进行。  所以我们看到,2016年,联合国、美国、英国、IEEE等开始关注AI伦理和法律问题;2017年,AI滥用、AI透明性、算法公平、AI伦理、AI监管和责任、AI信任等将进入更广泛的公众讨论视野,相关标准和规范将进一步出台。未来需要更多的讨论和对话,一方面需要确保法律和政策不会阻碍创新进程,另一方面,对新出现的诸如伦理、责任、安全、隐私等问题,需要在跨学科的基础上,以及在政府、企业、民间机构、公众密切合作的基础上,共同削弱AI的不利影响,创建人类-AI彼此信任的未来。
[责任编辑:yxl]
转载申明:中国智能化产业与产品网独家专稿,转载请注明出处,违者必究!
人工智能&&自动系统&&AI/AS
新药研发的AI时代:人工智能带来的真正冲击是什么?
关于举办“第七届吴文俊人工智能科学技术奖颁奖盛典暨2017中国人工智能产业年会”的通知
关于授予44项成果2017年度吴文俊人工智能科学技术奖的决定
汤晓鸥教授:人工智能让天下没有难吹的牛!
报告:人工智能将在五年内显著威胁到人类就业
&& ICP备案号:京ICP备号 - 技术支持:智能君博科技
地址:北京市朝阳区劲松南路1号
加为微信好友【月考题】2017年政治高考模拟试题八十
我的图书馆
【月考题】2017年政治高考模拟试题八十
23.对漫画提出问题的回答,与唯物辩证法精神一致的是①前后是相对的,人们无法判定②前后是绝对的,双方相互排斥③前后作为对立面是相互转化的④前后是相互渗透,相互包含的A.①②
D.①④21.漫画《做事先做人》(作者:郑辛遥)给我们的哲学启示是&&&①要重视局部,充分调动和发挥个人积极性&&②要注重修身,发挥正确价值观的导向作用&&③要加强协作,注重系统内部结构优化趋向&&④要抓住重点,全力以赴解决事物主要矛盾&&A.①② B.①④ &&&C.②③ &&&D.③④2017年政府工作报告的12个新词引起热议。它们是:蓝天保卫战、居住属性、数字家庭、数字经济、全城旅游、河长制、海绵城市、农村土地“三权分置”、清单管理制度、国家公园体制、人工智能、第五代移动通信。回答22、23题。22.“蓝天保卫战”的目标是今年二氧化硫、氮氧化物排放量要分别下降3%。打好蓝天保卫战,能源革命是关键。绿色发展,一是“绿”生态,要注重生态保护与修复;二是“绿”产业,着力发展环保、节能、低碳产业,如智能制造、新材料、垃圾处理等;三是“绿”消费,提倡宜居、健康的生活方式;最后是“绿”文明,通过法律、行政手段,提升公民素养,让绿色理念深入人心。这是说明①世界是一个普遍联系的有机整体②整体和部分相互联系、密不可分③要正确对待主观与客观的联系④任何事物之间都存在着必然联系A.①②
D.③④23.民生是为政之要,必须时刻放在心头、扛在肩上。2017年政府工作报告的每一个热词、每一张民生清单、每一项民生实事,背后都是普通百姓实实在在的获得感。这是因为①人民群众的利益是政府工作的最高价值标准②只有在个人与社会统一中才能实现人生价值③家与国是统一的,国家好,民族好,家庭才能好④人是社会的主体,千家万户都好,国家才能好A.①②
D.③④&38.(26分)阅读材料,完成下列要求。&&2017政府工作报告提出,要加快培育壮大包括人工智能在内的新兴产业。&&材料一:随着近年来人工智能技术的突飞猛进,有专家推洲,在未来3 -5年,基本的人工服务都可能被人工智能取代,尤其是如简单的客服,翻译、新闻、金融交易等特定领域。另一方面,人工智能也会带来一波新兴产业的热潮,如人工智能的学习、高级机械的制造等。J公司是一家传统中医药企业,拥有全球首务无人操作中药液体生产线,其拥有的智能化车间是一个全封闭、垒监控、全自动无人车闻,通过107个机械手臂,配合完成提取、分离、纯化、配料、洗瓶、灌装、密封、检测、装盒、码垛等一系列生产流程,大大降低了由于人为因素带来的产品质量问题。&&材料二:人工智能在异军突起的同时也存在如下问题:更多依靠风险投资和创新技童模式来生存:科技研发投入不足、核心技术对外依存度高;政府行业管理和政策支持相对滞后;我国现有的人才培养模式不是很适合跨行业人工智能的需要。&&(1)结合材料一与经济生活知识,分析发展人工智能给我国经济带来的影响,并说明劳动者应如何应对这一新技术革命的挑战。(14分)①积极影响:有利于推动新技术革命,实施创新驱动战略,转变经济发展方式:(2分)有利于推动新型工业化、信息化,实现产业结构的优化升级,创造新的经济增长点;(2分)有利于满足居民消费需求,提高消费水平或改善消费结构;(2分)有利于提高企业生产的标准化水平,提高产品质量;(2分)&&&消极影响:人工智能会引起结构性失业,不利于社会稳定(2分)②劳动者:接受教育,提高自身素质;(2分)树立竞争就业观、多种方式就业观等正确的就业观念,积极适应就业形势的变化。(2分)&(2)结合材料二和政治生活知识,说明我国人大和政府应如何支持人工智能产业的发展。(12分)①人大:行使立法权,完善相关法律法规,为政府落实人工智能发展提供法律依据;(2分)行使决定权,推动政府在规划计划制定、财政预算安排等方面加强宏观调控与提供公共服务;(2分)行使监督权,强化对政府法律实施、政策执行方面的检查和监督。(2分)②政府:履行好组织社会主义经济建设的职能,加强行业管理和政策支持,引导行业正常发展(3分)组织好社会主义文化建设职能,大力发展教育,改革人才培养模式,为人工智能培育新型人才。(3分)&39.阅读材料,完成下列要求。(26分)&&&&长征是一部艰苦卓绝的战争史,更是一部破尽万难的奋斗史。二万五千里的征程,红军战士以坚如磐石的理想信念、百折不挠的英雄气概、敢于胜利的革命风范,写下了人类历史的传奇,更为中华民族留下了一笔沉甸甸额精神财富。这种精神就是把中华民族的根本利益看的高于一切,坚定革命的理想和信念,坚信正义事业必胜的精神;就是为了救国救民,不怕任何艰难险阻,不惜付出一切牺牲的精神;就是顾全大局、严守纪律、紧密团结的精神;就是紧急依靠人民群众,同人民群众生死相依、患难与共、艰苦奋斗的精神。&&&&在21世纪的今天,中华民族又开始了建设有中国特色的社会主义新长征。奋进的时代必有奋进的精神,作为一种精神品格和实践特质,“长征”早已融汇成中华民族的精神气质。我们每代人都要走好自己的长征路,以长征精神为指引,高举中国特色社会主义伟大旗帜,继往开来,与时俱进,同舟共济,顽强拼搏,争取在新长征路上创造新辉煌。&&&&(1)运用价值观的有关知识,结合材料中关于长征精神的内涵,阐述弘扬长征精神对我们实现人生价值的哲学启示。(12分)&&&&①长征精神所蕴含的百折不挠的英雄气概和艰苦奋斗的精神,启示我们实现人生价值,需要充分发挥主观能动性,顽强拼搏、自强不息。②长征精神所蕴含的救国救民、顾全大局、严守纪律、紧密团结的精神,启示我们实现人生的价值,需要努力发展自己的才能,全面提高个人素质,尤其是思想道德素质。③长征精神所蕴含的革命信念、正义必胜、同人民群众生死相依的精神,启示我们实现人生价值需要有坚定的理想信念,坚持正确价值观的指引。④长征精神所蕴含的革命风范、实践特质、把中华民族的根本利益看得高于一切的价值观念,启示我们要作出正确的价值判断与价值选择,在劳动和奉献中创造价值,在个人与社会的统一中实现价值。(每点3分)(2)运用《文化生活》的有关知识,结合上述材料,分析如何在奋进的时代,不忘初心,弘扬伟大的长征精神。(10分)&&&①坚持中国特色社会主义理论指导,把弘扬长征精神与推进马克思主义的中国化紧密结合起来,继往开来,与时俱进,同舟共济,顽强拼搏。②建设社会主义核心价值体系,倡导社会主义核心价值观,提高全民族的思想道德素质。③把弘扬长征精神与弘扬民族精神和时代精神紧密结合起来,大力弘扬以爱国主义为核心的伟大民族精神和以改革创新为核心的时代精神。④立足中国特色社会主义伟大实践,人人都应当成为长征精神的传播者、弘扬者、建设者。⑤继承和发扬中华民族的优良传统。继承发扬我们党在长期革命、建设和改革实践中形成的优良传统。(每点2分)&(3)假如你所在的学校团委开展“纪念中国工农红军长征胜利80周年”活动,请你围绕主题,向学校团委建议开展两项具体活动。(4分)①开展“我的长征路我的中国梦”征文活动。②开展“长征故事我来讲”演讲活动。③开展“书写长征精神”诗词书法活动。④开展“重走长征路,追寻红色记忆”爱国主义教育走访活动。(答出其中两点即可给4分,其他建议言之有理亦可酌情给分)39.阅读材料,完成下列要求。(26分)网红,网络红人的简称。在中国一度是个贬义词。但要成为名副其实的网红,单在社交平台上拥有大量粉丝是不够的,还要有一间商品热销的淘宝店铺。网红们的成长路径颇为相似:以一位年轻貌美的时尚达人为形象代表,以红人的品味和眼光为主导,进行选款和视觉推广,在社交媒体上聚集人气,依托庞大的粉丝群体进行定向营销,从而将粉丝转化为购买力,这就是网红经济。“网红经济”的出现恰恰表明,我们的社会存在严重危机。这个危机的根源在于金钱成为左右社会生活的最关键尺度和标准,助长了急功近利、唯利是图等思想,玷污了中华文化的精神与风骨。新晋“网红”华为技术有限公司创始人、总裁任正非,年收入5200忆,相当于5个阿里,7个小米,其中,60%的收入来自海外,连最新的P9手机都请到了“超人+黑寡妇”的好莱坞组合代言。微信的热虚,从年头抢红包、年中线下公开课燃到年尾的小程序,现在搜索“小程序”,更有超过2000;万的搜索页面出现,对张小龙来说,小程序使他“改变世界”的梦想又迈进了一步,对亿万创业者采说,或许一个新的创业生态已然呈现,在小程序开放的当天,就有摩拜单车、京东、滴滴、豆瓣评分、今口头条等知名应用号上线,微信幕后主导人张小龙,则成为当之无愧的2016年度网红人物。傅园慧以“洪荒之力”诠释奥林匹克精神,走红网络。他们作为真正的网红,绝不是时代的偶然产物,必将对社会和我们每个人产生巨大的积极的影响。(1)结合材料,运用人生价值观的知识,为网络红人提出人生发展的合理建议。(10分)①网络红人应以正确的人生价值观为指导,践行社会主义核心价值观,合理规划人生发展。②网络红人要始终与人民群众的根本利益保持一致,为社会做出积极贡献,实现个人与社会的统一。③网络红人应该全面提高自己的综合素养,砥砺自我,在劳动实践和贡献社会中追求人生的发展。(2)结合材料,从文化对人的影响角度,分析为什么说真正的“网红”会对我们产生巨大的积极的影响。(12分)①真正的网红文化作为一种社会精神力量,能在人们认识和改造世界的过程中转化为物质力量,对社会产生深刻的影响。②真正的网红作为一种文化现象,能顺应时代的要求,在独特的互联网环境中营造了积极向上的文化氛围,必将潜移默化、深远持久地影响着人们的思维方式、交往方式和实践活动。③真正的网红能坚持不懈地追求梦想,这种追求卓越的精神所凝结成的网红文化,能丰富人们的精神世界、增强人们的精神力量。④真正的网红大都经历过艰难的创业历程,这种宝贵的精神财富能为人的健康成长提供不可缺少的精神食粮,有利于促进人的全面发展。(3)请简要概括我们这个时代真正需要的“网红”(4分)有着高尚品德,极富个性、行为端正,在本职工作中既能脚踏实地、甘于奉献,又勇于担当、成绩显著的在网络上广受关注的人。&
TA的最新馆藏
喜欢该文的人也喜欢}

我要回帖

更多关于 人工智能的法律风险 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信