目前社会对于ai算法和传统算法治理的必要性已经拥有了共识,但我们还没有形成ai算法和传统算法治理的体系,其难点在哪里?

随着数字化的深入发展,智能算法已经成为基础性、通用性的技术,持续在经济社会的各个领域应用发展。从互联网领域中的推荐算法、AI生成内容(AIGC),到产业领域中的自动驾驶汽车、医疗AI、工业质检AI,再到社会公共服务中的便民应用,可见算法为数字经济和社会的高质量发展“提质增效”。与此同时,算法的广泛应用也带来一些负面问题,诸如信息茧房、隐私侵犯、大数据杀熟、算法滥用等。为此,国内外开始探索建立算法治理的新路径新举措,更好地保障可信的、负责任的、以人为本的算法技术创新与应用。在这些背景下,腾讯研究院法律研究中心研究推出了《人工智能时代的算法治理报告2022——构建法律、伦理、技术协同的算法治理格局》。报告立足于算法的技术趋势和行业应用现状,从法律监管、伦理治理、技术治理三个层面梳理总结国内外在算法治理方面的实践做法,以期通过多元参与、敏捷灵活、精准有效的算法治理,保障算法技术创新与应用健康、有序、繁荣发展。以下为报告核心内容摘要。后台回复关键词“AI治理2022”即可查看/下载完整报告技术趋势:算法创新推动经济社会智能化发展当前,在算法技术创新中,主要有大模型、合成数据和生成性AI三个趋势。其中,大模型无疑是最为重要的发展趋势之一。相较于过去功能较为单一的算法模型而言,大模型具有更强的通用性。因此,大模型也意味着“AI工业化”的到来。AI工业化是指,AI具备了标准化、模块化、自动化的特征,能够大规模地在产业中落地应用。大模型正体现了AI标准化、模块化、自动化的实现路径,并且大模型形成的成本边际效应,极大地节约了AI应用成本。表:国外主要的AI大模型简表利用生成对抗性网络(GAN)等AI深度合成技术生产的合成数据,为算法技术创新及其在各领域的创新应用提供了必需的数据源。尤其是在大模型时代,使用合成数据训练的算法模型具有更高的准确性、鲁棒性和通用性。此外,生成性AI也是最新的发展方向,大多生成性AI基于大模型,可以自主生成文本、图像、音频、视频、虚拟场景等多种类型的数字内容,将带来一场零边际成本的内容生产变革,进而给数字内容业态带来巨大影响。图:Jason Allen用生成性AI绘制的作品《太空歌剧院》,获得比赛第一名算法技术创新推动算法在经济社会各领域的广泛应用,不断带来创新性应用。例如,算法为产业数字化转型“增智提效”,不仅提升了农业、工业制造等传统产业的效率和自动化水平,也为自动驾驶等新兴产业的发展赋能。同时,算法也逐渐成为数字文化产业创新的基础设施,不断促进数字文化产业繁荣。此外,在推动社会治理现代化方面,算法极大地优化了社会公共服务效率,进一步推动智慧政务“服务下沉”,促使政务信息化、数字化、智慧化成为各级政府改革的刚需。监管层面:国内外推进,算法立法和监管,积极规范算法应用目前,国内外都在对算法应用进行不同程度的立法和监管。国内重点针对互联网信息服务算法推荐、分享经济平台算法劳动管理、算法应用中数据竞争、算法推荐的版权治理、深度合成等问题积极探索立法和监管举措。国外则侧重人工智能监管、公共服务中算法应用监管、算法应用中的个人数据保护、算法自动化决策、数字零工经济中的劳动者权益保障等问题。值得一提的是,在整体的监管路径上,各国存在差异。例如,欧盟正在制定人工智能法案,尝试基于风险等级分类,对所有人工智能应用建立一个统一的、通用的监管框架,但效果和影响还有待观察。很多专家预测,正像之前的数据隐私立法GPDR对全球科技行业的影响那样,欧盟人工智能法案将“布鲁塞尔效应”延伸到AI领域,而这正是欧盟所希望的,即通过监管为全球树立AI治理标准。美英则更加强调监管和行业自律的结合。例如,美国白宫最近发布的《AI权利法案蓝图》(Blueprint for AI Bill of Rights),明确提出行业主管部门牵头、应用场景导向的分散化监管思路,同时提出5项自愿性的原则。今年7月,英国发布政策文件“建立促进创新的AI监管路径”(Establishing a pro-innovation approach to regulating AI),提出以原则为指导,对AI应用采取促进创新的监管,聚焦具体应用场景,基于风险大小,确保监管的相称性和适应性。可见,美国和英国更加强调行业主管部门牵头、聚焦具体应用场景的分散化监管思路。伦理治理:从原则走向实践,更好保障负责任创新目前,全球各国、社会组织、行业在算法伦理治理上进行了长期探索,从过去积极探索算法治理的伦理原则,到现在逐步开展伦理治理的落地实践并取得阶段性成效。从全球AI伦理治理来看,已经从原则共识走向治理实践。2021年11月25日,教科文组织第41届大会正式通过的首份人工智能伦理问题全球性协议--《人工智能伦理问题建议书》标志着全球已经就算法伦理治理达成了伦理共识,正在走向伦理治理实践。它不仅制定了首个规范性全球框架,同时赋予各国在相应层面应用该框架的责任,也为规范人工智能发展和应用提供了实践指导和工具基础。我国也在不断通过政策和立法提出算法伦理治理的要求,伦理治理呈现制度化、法律化的趋势。例如,我国已经组建国家科技伦理委员会,负责指导和统筹协调推进全国科技伦理治理体系建设工作。《关于加强科技伦理治理的意见》则对落实科技伦理治理做出了顶层设计和全面部署,涉及总体要求、科技伦理原则、科技伦理治理体制、科技伦理治理制度保障、科技伦理审查和监管,以及科技伦理教育和宣传等六大方面。《数据安全法》《互联网信息服务算法推荐管理规定》《关于加强互联网信息服务算法综合治理的指导意见》等法律法规和规范性文件,则对数据和算法活动提出了科技伦理治理的要求和措施。业界在算法伦理治理方面做出了较多的探索。首先,国内外科技企业积极建立AI伦理委员会等科技伦理治理机构,为企业的伦理制度建设、伦理评估与审查、伦理教育与文化建设等提供组织保障,践行负责任的研究与创新理念;其次,业界在AI风险管理机制和AI伦理标准认证方面进行了前沿探索,旨在帮助AI的设计者、开发者、使用者以及评估者更好地管理AI生命周期中可能出现的风险,同时也为对符合伦理标准的人工智能产品、服务或系统进行鉴定认证;最后,针对频发的算法歧视等问题,业界效仿“网络安全Bug赏金挑战赛”的众包模式,开创了算法伦理赏金机制,不仅能快速识别算法问题并改进其产品和服务,也可以提高客户信任度。图:AI系统生命周期风险管理技术治理:以可信AI为抓手,打造安全可靠、负责任的算法应用在算法的技术治理方面,可信AI正逐步成为行业规范化、技术商业化的关键助推器,其核心是让AI应用满足公平、安全、可解释、隐私保护等条件,因此也是落实算法治理的重要技术实践。以中国、美国、欧盟为代表的AI领头羊均把可信AI放在AI伦理和治理的核心位置,发展可信AI也正在成为全球的共识。AI企业作为人工智能技术产品化的主体,在可信AI的发展实践中正发挥着日益积极的作用。图:可信AI研究框架第一,可解释性。2021年,学界、产业界都在积极探索算法可解释性的技术路径和实践路径,促进算法技术透明。腾讯研究院等发布的国内首份《可解释AI发展报告2022》对此进行了全面梳理,比如,建立“模型说明书”标准,促进算法模型本身的透明度和可理解性,增加相关主体对模型的理解和信任;抑或是打造可解释性工具,推动构建可解释的AI模型(XAI)。第二,安全性。AI内生安全能力与AI检测工具保障技术安全应用与发展。算法安全主要集中在两个层面。一是,对算法系统本身的保护,保护人工智能训练数据、训练管道和机器学习模型,即AI内生安全。对于AI内生安全,企业和科研团队都给予高度关注。例如,腾讯朱雀实验室不断探索高阶的算法模型攻击模式,如“AI供应链攻击”、“重构模型后门攻击”、“数据木马隐藏攻击”等。二是,研发检测识别工具来促进生成性AI算法和AI生成/合成内容的安全可控应用,应对深度伪造、AI换脸、AI欺诈等算法恶意使用的行为。第三,公平性。目前可信AI在促进算法公平性上有很多的创新和实践,主流的是从数据和算法两个方面入手,如使用族群、性别等属性均衡的数据集,在算法模型中增加约束或正则项消除偏差等。与此同时,公平性检测也是促进算法公平的重要实践方式。业界不仅推出了基于不同纬度和视角的公平性测试的数据基准,而且陆续也在推出公平性测试的算法、工具等。第四,隐私保护。业界分别从数据、算法两个方面进行可信AI隐私保护的技术创新和部署:在数据方面,主要包括差分隐私、合成数据、同态加密(HE)、匿名化等技术手段;在算法方面,以隐私计算为主要领域,主要包括了安全多方计算、零知识证明、联邦学习等。第五,可信AI的发展过程中,算法伦理服务市场也在同步兴起。未来国内外大型科技企业不仅会提出更加完善的AI伦理解决方案来服务于企业内部的技术研发和产品业务稳定发展,它们也会将这些AI伦理解决方案和经验包装成可复制、可推广的服务产品,去赋能更多的人工智能科技企业和产品。同时,也会有更多的创业者涌入这个领域,围绕AI伦理服务进行创业。展望:走向法律、伦理、技术协作互动的算法治理实践面向未来,灵活有效的算法治理离不开法律、伦理、技术等多种治理手段的协同作用,也需要监管部门、行业和企业、研究机构、社会组织以及社会公众等多元主体的共同参与。仍需坚持以人为本、科技向善等理念,实现算法创新应用和安全之间的平衡发展。在法律治理方面,需要采取分场景分行业的分级分类监管思路,划定算法应用的底线,形成敏捷的、精准的长效监管和治理机制,探索政策指南、监管沙盒、安全港、试点、标准认证、事后追责等多元化的监管措施,确保算法技术创新与应用发展既生机勃勃又井然有序。在伦理治理方面,随着算法技术与人类社会的深入融合、未来数字科技逐渐走进“深水区”,以算法伦理治理防范算法风险、推动负责任创新,已经成为各国政府、科技企业的共识。未来,算法伦理治理的制度建设会逐步完善,内部建设主要以机构内的科技伦理委员会为载体,外部建设有第三方伦理认证等探索性尝试。在技术治理方面,以技术创新解决技术应用带来的问题是算法治理实践的关键一环,能够打通抽象的治理原则和具体的技术实践之间的鸿沟。围绕可信AI及应用,未来会有更多伦理性的技术工具、技术解决方案。伦理设计的理念和实践正在与技术治理、技术创新紧密融合。越来越多的伦理考量将进入到技术的研发设计过程中。本文作者:“腾讯研究院”}
张成洪/文自2016年3月阿尔法狗(AlphaGo)击败人类棋手李世石的新闻传出,到去年年底ChatGPT问世,人工智能(AI)技术开始具备了通用人类意图理解和思维链的能力,尤其是在与深度学习和生成式AI相结合的情况下,再加上基于人类反馈的强化学习,计算机已经能够完成编程、写作、绘画等任务,逐步接近了“人类能力地图”上的几座高峰。人们对人工智能的关注逐渐升高,兴奋之余也开始思考机器智能是否可能超越人类智能。AI的“远虑”和“近忧”今年上半年,包括马斯克在内的千名全球科技人士联名发布了一份公开信,呼吁暂停推出更强大的人工智能系统。尽管我认为这份公开信的呼吁不太可行,但其中提出的许多观点值得深思。其中,特别强调需要建立专门负责人工智能的、有能力的监管机构;强调推出标明来源系统和水印系统的重要性,以帮助区分真实信息和合成信息,并跟踪模型的泄露;此外,还提出需要强大的审计和认证体系,以确保人工智能系统的透明度和可信度。另外,公开信还提出了需要明确人工智能可能造成的伤害所对应的责任归属。这些内容表明,科技领域的关注不仅仅局限于人工智能的应用,更多地开始关注人工智能是否会带来负面影响,是否需要对其发展进行适当的限制。即使不去考虑AI的“远虑”,也需关注AI的“近忧”。比如,电商平台依赖算法进行推荐和定价,可能导致价格歧视和大数据杀熟现象;视频网站通过算法推荐内容,可能造成信息茧房,加剧信息偏见,还有比如搜索排名与个性化推荐被操纵;医疗领域误诊风险;隐私泄露、诱发舆论暴力、种族、性别的歧视;人类过度依赖算法,使个体失去自主性等负面案例;当算法决策或应用结果损害特定主体权益时,由于规则和原则不明确,可能导致利益救济不足的风险;滥用或误用算法也是一个潜在的风险,算法产生的决策效果可能会破坏社会的公正和社会凝聚力。因此我们迫切需要对AI算法进行有效的治理。AI算法的基本原则AI算法治理的定义是基于风险防范的要求,把算法本身以及其应用的场景和解决的问题,作为治理对象进行规范化、合规化的监管和修正。目前学界对于算法治理提出了不同的定义,有学者认为算法治理致力于提高算法的可解释性、透明性和技术保障,涉及一系列技术标准和法律规范的制定。也有学者认为,算法治理旨在确保算法的安全性,要对算法建模和预测的全过程进行管理。当涉及到算法的标准和要求时,现在出现了一些新的术语,例如公平的AI、可解释的AI、负责任的AI和可信的AI等等。综合考虑这些概念,我们总结出七点制定AI算法的基本要求。1)准确性。AI算法的首要任务是准确,如果不准确本身就没用,还会带来负面效果。2)稳定性。它要求我们的算法不仅在当前情境下准确可靠,还需在不同情境下保持准确可靠。3)可靠性。保证算法决策依据的充分性,保证决策结果可靠,可信任。4)公平性。保证算法的决策无偏向性,无指向性。5)透明性(可理解性)。保证算法的决策过程是透明的,决策结果是让大众可以理解的。6)安全性。算法的开发和使用必须免受安全隐患的影响,不能因为外部干扰或攻击而导致算法误判。7)隐私保护。算法一定会使用数据,所以要保证数据的安全,保护用户隐私。对于AI算法治理的必要性,目前社会已经拥有共识,但我们还没有形成AI算法治理的体系。难点在哪里?在于AI算法是一个“黑匣子”,难以检测AI算法是否符合透明可解释、公平多样、安全合规等要求。此外还存在着设计人员怎么保证算法是合规合法的、符合科技伦理的,应该由谁负责AI算法的治理,谁又有能力来做AI算法治理等一系列问题。基于此,我认为AI算法治理至少要包含三个层次。第一个层次,是算法治理的政策法规,由国家行业的主管部门制定政策,给予指导。第二个层次,是算法合规性的审计,依据法律法规或者行业要求对企业展开检查和监管,这个可能企业内部做,也可能需要行业或国家成立专门的监管机构去做。第三个层次,是开发出合规合法的AI算法,这对开发人员、对算法工程师是有要求的。算法治理的政策法规算法治理的政策法规具有特殊重要性,因为它是算法治理的重要指引,是全社会的共识。政府与行业需要共同合作,制定法律法规,以确保算法的合理运用,并进行必要的政府监管。这需要确立健全的算法问责机制,明晰算法的责任主体,以促进算法治理走向科学化、体系化。同时,伦理道德方面的约束也不可或缺。一些企业在这方面也展现出积极努力,例如微软设立了人工智能能力委员会、美国联邦政府与亚马逊合作开发促进算法公平性的项目。另外,腾讯一直强调科技向善,阿里在实践中也致力于开发负责任的AIGC。实际上,从2021年起,我国相继颁布了一系列关于算法治理的法律法规。例如,于2021年3月发布的人工智能算法在金融领域应用的评价规范; 7月份人力资源和社会保障部等八个部门共同发布了一份指导意见,着眼于维护新兴就业形态下劳动者权益的保护;8月份国家出台了互联网信息服务算法推荐管理的规定,主要是强调信息服务的推荐过程中要避免信息茧房,在2022年形成了正式的意见;9月份发布《新一代人工智能的伦理规范》,2022年11月份,又出台了《互联网信息服务深度合成管理规范》,今年发布了《生成式人工智能服务管理办法》的征求意见稿。近几年有大量的相关文件发布。AI算法合规性审计的意义与困难算法治理的第二个层次即算法合规性审计,以2021年美团为例,为应对社会上对于骑手困在算法中的关注,在国家出台相应要求以保护骑手权益之际,美团采取了措施,公开了其骑手调度管理算法。然而,此举并未如预期般奏效,因公开程度较为粗略,难以被广泛理解。在此引发一个问题:公开的程度应如何界定?若完全公开,是否会损害公司有关算法的知识产权?公开程度与算法知识产权保护怎么去平衡?这是一种矛盾。相比之下,更好的方式是将其向专业人士或专门机构公开,设立专门的审计机构,以审计为手段检查企业或其AI程序是否遵守政策法规,确保其算法达到合规向善的企业承诺。当然,审计方式或可为企业内部部门,亦或为外部专业机构。目前,对于AI算法进行审计确实极具挑战性。过去,企业对业务进行审计时可能发现,大部分业务实际上是由信息技术(IT)主导的,或者说业务的运转离不开IT系统。因此,对于IT系统的审计变得不可或缺,这可能需要对IT系统的逻辑进行严格审查。而当我们面临算法审计时,即便有条件打开算法代码,很可能仍然无法判断其合规性,尤其对于许多深度学习的AI算法来说,它们常常被视为黑匣子,难以深入探究其内部机理。当然,算法审计仍然需要继续前行,这需要在几个方面展开工作。首先,制度建设是关键,其中一个方向是确立相应的监管体系。监管部门需要将算法视为监管对象,并对其全过程进行监管。有时候,由企业内部自行进行算法治理,而在某些情况下需要引入第三方的外部算法治理。其次,我们还可以借鉴传统审计流程的经验。制定一套标准,通过调研收集必要的信息,并进行测试和反馈,再总结审计结果。此外,需要基于算法合规性要求设定审计目标,并逐步细化成合规性的评价指标。最后,利用专门的方法和工具去测试被审计算法的各种指标,从而判断该算法的合规性。目前,AI算法审计仍处于初步探索阶段,还需要大量的研究和探索,但同时也蕴含着巨大的机遇和潜力。在AI监管要求不断加强、AI负面事件增多的背景下,随着技术的不断发展和专业机构的建立,我相信AI算法审计会逐渐成为一项重要的工作,为确保AI系统的透明性、公平性和合规性发挥着关键作用。合规算法开发的需求与挑战实际上,在算法开发阶段就考虑合规性问题是非常重要的,因为事后审计存在局限性,有时候可以说是于事无补。然而,确保算法在开发过程中合规并不是一项容易的任务。对于可解释的模型,我们可能可以采取一些方法来确保样本特征、参数、目标函数等都符合合规要求,但对于深度学习等复杂模型来说可能更具挑战性。此外,如何将合规性要求与业务要求融合并在模型的训练过程中加以约束也是一个重要问题。我们需要考虑如何确保模型是可解释和可监管的,同时符合科技伦理标准。这可能需要采用一系列策略。综合而言,人工智能对人类的影响深远,然而它又可以说是一把“双刃剑”,我们既需善用人工智能,也要严密监管,特别是在AI算法治理方面。尽管我国已在政策层面积极出台许多相关政策,但就算法治理的合规性审计和合规算法开发而言,仍处于探索初期。要推进AI算法治理,需要高校和企业共同研究推进,行业和政府制度也应密切参与,同时,AI开发人员也需自觉承担责任。我深信,通过对AI算法的有效治理,我们将确保科技未来的善用,真正实现人工智能的负责任发展。(作者系复旦大学管理学院信息管理与商业智能系教授)}
2023-05-16 11:40
来源:
草原古都生活宝典
开年以来,人工智能领域的现象级爆发引发全球关注和讨论。美国人工智能公司OpenAI最新发布的GPT-4不仅可以通过律师考试,还可以将一张手绘草图变成一个可运行网站,或在60秒内建立一个视频游戏……在生成式AI的一行行智能回答的背后,对人工智能的信任、责任、伦理、法律等思考也逐步从幕后走向前台,成为热门话题。
怎样理解人工智能创造的艺术?人工智能时代我们该如何定义“公平”?如何把人类知识和AI算法结合以防止风险?这些话题的背后,最根本的问题是:我们需要什么样的AI伦理和AI治理?
图源:pixabay
不可否认,生成式人工智能还有很多局限性,但人类应为应对AI可能带来的风险做好准备。在AI技术如火如荼发展的同时,关于AI伦理和AI治理,社会亟须形成广泛明确的共识。
全球来自学术界或科技企业等领域的专家学者,开始围绕“AI向善的理论与实践”“AI的公平性”“AI与风险治理”“AI决策的可靠性和可解释性”“用户数据隐私”“包容性的AI”等问题展开讨论。
不少观点为理解人工智能热潮提供了思路。
例如,人工智能是否会威胁人类?以ChatGPT为代表的大模型技术发展之快,很容易令人产生幻觉——似乎科幻电影里的想象已然近在咫尺,似乎将ChatGPT和智能机器人结合起来,我们就可以把《银翼杀手2049》里的虚拟女孩乔伊搬进现实。
图源:pixabay
微软全球资深副总裁洪小文认为,现在的人工智能是“强人工智能很弱,弱人工智能很强”,对于通用人工智能的威胁,其实没必要太过担忧。今天的人工智能根本不具备系统化解问题的功能,通用人工智能的实现还“没有影子”。
对于这个问题,复旦大学教授漆远介绍了顶尖科学家们的观点。他提到,麻省理工学院顶尖科学家之间曾举行辩论,主题为“将来机器人是否能够像牛顿和爱因斯坦等科学家一样发现科学定律”。现场的研究者一派认为不可能,这个技术的“种子”不存在;另一派则认为,有可能实现,但技术路线不得而知。
尽管人类和超级人工智能之间还有不短的距离,但思考其潜在风险,其即将或已引发的伦理与治理问题,仍非常必要。漆远认为,面对人工智能可能存在的风险,系统设计要留有“冗余”,需要将人和智能机器看作一个大系统,从整体来思考和构建可信和可靠性。
再如,数据隐私保护问题。很多企业掌握着大量数据,但数据归属权却并不清晰。例如,医院拍摄的医学影像属于患者还是医院?
图源:网络
美团副总裁、首席科学家夏华夏给出了3点具体看法。具体到科技企业,如果收集数据,应该告诉用户数据未来的用途;保护数据隐私,企业要有自律精神,需要有一套数据使用制度以及委员会监管;数据安全需要技术保障,但起兜底作用的还是法律法规,数据保护相关法律法规对企业是约束,也可以让用户放心。
清华大学苏世民书院院长薛澜认为,人工智能领域比较好的治理模式是“敏捷治理”,要求政府与企业互相沟通,共同讨论潜在风险并判断如何有意识地加以规避,建立合理的治理框架。
目前,人工智能仍以极快的速度发展着。人类在道德和实践理性层面上的进步,也要跟上技术发展的节奏。正如未来论坛青年理事、中国人民大学法学院副教授郭锐在《人工智能伦理与治理·未来视角》一书的导论中所言,意识到并理解随新技术产生的社会伦理和治理问题,着手应对,“人类就是在实践最高意义上的自由”。希望社会各界能认识AI,拥抱它、适应它、影响它并引领它,共同建立起一个能让人类从人工智能中受益并防止其产生危害的治理体系。
来源:科技日报
声明:公众号所转载文章都均标明来源文章内容不代表本公众号观点,如发现转载文章有涉及侵权问题行为,请即刻与我们取得联系并告知相应文章链接及图片,我们会及时进行核实修改或删除。返回搜狐,查看更多
责任编辑:}

我要回帖

更多关于 ai算法和传统算法 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信