中文版
热销报告
当前位置:
首页 >热销报告 >人工智能
人工智能
《可信人工智能的道德准则》
      2019年4月8日,欧盟委员会发布《可信人工智能的道德准则》,同时宣布启动人工智能道德准则试运行。欧盟在人工智能投资和尖端研究上无法与中美比肩,希望借助其在AI道德准则上的优势,构建AI全球监管框架。
 
 
售价:¥39.9
购买
目录

执行摘要

引言

实现可信AI架构

可信AI的基础条件

可信AI的实现路径

可信AI的评估机制

示例:AI带来的机遇和挑战

 

结论

术语

 
执行摘要


      该准则以推广可信人工智能(下文中统称“可信AI”)为目的。构成可信AI应保证其在整个生命周期内都具备以下三个要素:

   
     一是合法性,即应遵守现行有效的法律法规;

     
      二是合道德性,即确保遵守道德准则和价值观;

     
      三是合鲁棒性,即使AI系统设计的意图是良好的,但也可能在无意间造成危害。因此从技术和社会的角度,AI系统应确保其鲁棒性。各个要素本身都不可或缺,但并不足以保证AI的可信性。理想状态下,三个要素应协调作用并在操作中相互重合。在实践中,如果这些要素之间出现冲突,社会应努力对其进行协调,使其保持一致。

     
       该准则为实现可信AI设定架构,但这一架构并未对可信AI的第一要素(合法性)进行明确规定,其目标是提供关于第二和第三要素的指导准则,即培养和确保AI的道德性和鲁棒性。针对所有利益攸关方,该准则试图以指导道德原则如何在社会技术系统中实施的方式,超越和替代列道德原则清单的方式。该准则分为三个层面,从抽象到具体逐步过渡,最后以AI系统带来的机遇和挑战的示例作为结束。

     
       根据基于基本权利的方法,第一章确定在AI系统开发、部署和使用过程中必须尊重的道德原则及其相关价值。 

     
       本文件中的所有规范声明旨在反映实现可信AI的第二和第三要素(道德性和稳健性)的指导准则,并非旨在提供法律咨询意见或就遵守适用法律提供指导,尽管其中许多声明在某种程度上已经反映在现有法律中。该方面具体内容,参见21节及其后内容。

     
       第一章中的重点指导内容包括以下几点:

     
        ——AI系统的开发、部署和使用应遵循以下道德原则:尊重人的自主性、预防侵害、确保公平和具备可解释性。承认并解决这些原则之间的潜在冲突。

     
        ——特别注意涉及更为弱势的群体的情况,如儿童、残疾人和历史上一直处于弱势或易于遭遇不公平待遇的群体,以及权力或信息不对称的情况,如雇主和工人之间,或企业和消费者之间。 

     
      ——承认AI系统在为个人和社会带来实质利益的同时,也会引发某些风险,并可能产生负面影响,包括难以预测、识别或衡量的影响(例如对民主、法治和分配正义的影响,或对人类思维本身的影响)。在适当的时候采取符合风险规模的适当措施来减轻这些风险。

     
      第二章以第一章为基础,列出AI系统应当满足的七项要求,为如何通过技术方法和非技术方法实现可信AI提供指导。

     
      第二章中的重点指导内容包括以下几点:

     
      ——确保AI系统的开发、部署和使用符合可信AI的七个关键要求:人的能动性与监督;技术鲁棒性和安全性;隐私和数据治理;透明性;多样性、非歧视性和公平性;环境及社会福祉;问责制。

     
      ——考虑技术和非技术方法,以确保实现该等要求。

   
      ——促进研究和创新,以协助评估AI系统并进一步达到要求;向更广泛的公众传播成果和公开问题,系统地培训新一代AI道德专家。

     
      ——就实现AI系统预期设置的功能和限制以及如何实现相关需求的信息,以清晰、主动的方式与利益攸关方进行沟通,保证关于AI系统相关处理的事实透明、公开。

     
      ——促进AI系统的可跟踪性和可审计性,特别是在关键情境或情况下。

     
      ——鼓励利益攸关方参与AI系统的整个生命周期。推动培训和教育,使所有利益攸关方都具备关于可信AI的认知并接受培训。

     
      ——时刻谨记不同的原则和要求之间可能存在根本的冲突,持续地识别、评估、记录和沟通相关权衡和解决方案。


      第三章制定具体但非全面的可信AI评估清单,旨在落实第二章提出的主要要求。该评估清单需要根据AI系统的具体用例进行调整。


      第三章中的重点指导内容包括以下几点:

     
       ——在开发、部署或使用AI系统时,采用可信AI评估清单,并将其调整为适用于正在使用的AI系统的特定用例。

     
       ——时刻谨记该评估清单不具备永远的全面性。确保AI可信性的过程不是简单地勾画选项,而是持续地识别和实现需求,评估解决方案,确保在AI系统的整个生命周期内改进结果,并保证利益攸关方参与其中。


      该文件最后一节以AI带来的机遇和挑战的示例,具体的解释了整个架构所涉及的部分问题。

     
      虽然该准则旨在通过建立实现可信AI的横向基础,为通用AI应用提供指导,但不同的情况总会带来不同的挑战。考虑到AI系统应用场景的特异性,我们应该探讨的是,除了该横向架构外,是否还需要特定领域的专门框架以指导AI应用。

   
      该准则无意取代任何形式的当前或未来的决策或法规,亦无意阻止对该等决策或法规的引用。该准则应被视为动态文件,随着时间的推移持续审查和更新,以确保随着技术、社会环境和知识的发展,该准则具备持续相关性。本文件只是讨论“欧洲可信AI”的起点。

     
      除欧洲外,该准则还旨在促进全球范围内对AI系统道德架构的研究、反思和讨论。 

购买信息
姓名:
电话:
工作单位:
邮箱: