新一代人工智能治理原则——发展负责任的人工智能

更新时间:2024-04-29 17:25

新一代人工智能治理原则——发展负责任的人工智能》是为促进新一代人工智能健康发展,更好协调发展与治理的关系,确保人工智能安全可靠可控,推动经济、社会及生态可持续发展,共建人类命运共同体,人工智能发展相关各方应遵循的原则。由国家新一代人工智能治理专业委员会于2019年6月17日印发实施。

文件全文

新一代人工智能治理原则

——发展负责任的人工智能

全球人工智能发展进入新阶段,呈现出跨界融合、人机协同、群智开放等新特征,正在深刻改变人类社会生活、改变世界。为促进新一代人工智能健康发展,更好协调发展与治理的关系,确保人工智能安全可靠可控,推动经济、社会及生态可持续发展,共建人类命运共同体,人工智能发展相关各方应遵循以下原则:

一、和谐友好。人工智能发展应以增进人类共同福祉为目标;应符合人类的价值观和伦理道德,促进人机和谐,服务人类文明进步;应以保障社会安全、尊重人类权益为前提,避免误用,禁止滥用、恶用。

二、公平公正。人工智能发展应促进公平公正,保障利益相关者的权益,促进机会均等。通过持续提高技术水平、改善管理方式,在数据获取、算法设计、技术开发、产品研发和应用过程中消除偏见和歧视。

三、包容共享。人工智能应促进绿色发展,符合环境友好、资源节约的要求;应促进协调发展,推动各行各业转型升级,缩小区域差距;应促进包容发展,加强人工智能教育及科普,提升弱势群体适应性,努力消除数字鸿沟;应促进共享发展,避免数据与平台垄断,鼓励开放有序竞争。

四、尊重隐私。人工智能发展应尊重和保护个人隐私,充分保障个人的知情权和选择权。在个人信息的收集、存储、处理、使用等各环节应设置边界,建立规范。完善个人数据授权撤销机制,反对任何窃取、篡改、泄露和其他非法收集利用个人信息的行为。

五、安全可控。人工智能系统应不断提升透明性、可解释性、可靠性、可控性,逐步实现可审核、可监督、可追溯、可信赖。高度关注人工智能系统的安全,提高人工智能鲁棒性及抗干扰性,形成人工智能安全评估和管控能力。

六、共担责任。人工智能研发者、使用者及其他相关方应具有高度的社会责任感和自律意识,严格遵守法律法规、伦理道德和标准规范。建立人工智能问责机制,明确研发者、使用者和受用者等的责任。人工智能应用过程中应确保人类知情权,告知可能产生的风险和影响。防范利用人工智能进行非法活动。

七、开放协作。鼓励跨学科、跨领域、跨地区、跨国界的交流合作,推动国际组织、政府部门、科研机构、教育机构、企业、社会组织、公众在人工智能发展与治理中的协调互动。开展国际对话与合作,在充分尊重各国人工智能治理原则和实践的前提下,推动形成具有广泛共识的国际人工智能治理框架和标准规范。

八、敏捷治理。尊重人工智能发展规律,在推动人工智能创新发展、有序发展的同时,及时发现和解决可能引发的风险。不断提升智能化技术手段,优化管理机制,完善治理体系,推动治理原则贯穿人工智能产品和服务的全生命周期。对未来更高级人工智能的潜在风险持续开展研究和预判,确保人工智能始终朝着有利于社会的方向发展。

国家新一代人工智能治理专业委员会

2019年6月17日

内容解读

我国数据资源丰富,应用场景需求迫切,基础研究、技术开发的水平显著提升,人工智能较快发展。与此同时,治理方面的问题也随之出现。

国家新一代人工智能治理专业委员会发布《治理原则》,以“发展负责任的人工智能”为主题,希望“负责任”贯穿人工智能的研发和应用,促进技术的健康发展。

近年来,人工智能迅速发展,作为引领新一代科技革命和产业变革的战略性技术,人工智能正深刻影响社会生活、改变世界,在引发巨大变革的同时,也带来了诸多风险,人工智能该如何健康发展?

6月17日,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》(以下简称《治理原则》),提出了人工智能治理的框架和行动指南。这是我国促进新一代人工智能健康发展,加强人工智能法律、伦理、社会问题研究,积极推动人工智能全球治理的一项重要成果。

治理问题引起广泛关注,学界业界都在探索自律

“自2017年国家新一代人工智能发展规划发布以来,我国人工智能与各行业各领域的融合日益深入,展现出巨大的发展潜力。”清华大学苏世民书院院长、国家新一代人工智能治理专业委员会主任薛澜说,人工智能正在对政府管理经济模式、社会结构、国家安全甚至国际关系产生深刻的影响,随着技术的发展和应用,治理方面的问题不断出现,引起了科技界、产业界和社会的广泛关注。“很多国际组织、产业联盟和知名企业都在研究制定人工智能相关的准则,我国一些学术组织和产业联盟在这方面非常活跃,业界也在积极探索行业自律。”薛澜说。

为促进新一代人工智能健康发展,国家新一代人工智能治理专业委员会成立,统筹推进人工智能治理的相关工作,起草这份《治理原则》就是委员会今年的重点工作之一。

起草过程中,委员会注重广泛听取各方面意见。“我们在网络上公开动员公众参与,形成了上百条重要建议。”薛澜说,委员会还多次召开有关高校科研院所和企业代表参加的座谈会,广泛凝聚了学界、业界和社会的共识。

中国科学院自动化研究所研究员、国家新一代人工智能治理专业委员会委员曾毅介绍,目前全球各国政府、非政府组织和产业界机构已发布了超过40份人工智能准则,这些准则往往是在发布征求意见稿之后听取意见。“《治理原则》是在未发布任何内容的情况下,收集从业人员甚至普通用户对人工智能的期待和愿景,这是《治理原则》最主要的一个特点。”

“负责任”是主题,涵盖人工智能的基础研发到应用

“发展负责任的人工智能”成为《治理原则》的主题,在受访专家看来,“负责任”涵盖了人工智能的基础研发层到应用层,更应成为贯穿人工智能发展的一条主线。薛澜举例说:“比如我们提出的‘和谐友好’等原则,强调无论是人工智能提供的产品还是服务,都应该是负责任的、全面的,应以增进人类共同福祉为目标,应该符合人类的价值观和伦理道德,避免误用,禁止滥用、恶用。”

《治理原则》旨在更好协调人工智能发展与治理的关系,确保人工智能安全可控可靠,推动经济、社会及生态可持续发展,共建人类命运共同体,这也构成了《治理原则》的4个主要亮点。

更好协调人工智能发展与治理的关系,实现“双轮驱动”。上海大学教授、国家新一代人工智能治理专业委员会委员李仁涵说:“人工智能是一个新生事物,发展还是第一位的。推动我国人工智能的发展,也要在发展中解决问题。”他认为,人工智能的健康发展,应该及时纳入治理框架之中。科技部战略规划司副司长张旭表示,要平衡发展和治理的关系,对一些共性问题要加强标准和规范的制定,同时对于差异性的问题,要通过一些具体的规范把《治理原则》的内容更好纳入进来,使示范推广和产品应用更好结合,推动《治理原则》的落地。

确保人工智能安全可控可靠,规避风险隐患。“人工智能的发展仍然存在技术和社会潜在影响的双重‘不确定性’,因此我们要对更高级的人工智能潜在风险持续地开展研究和预判,确保人工智能健康稳健发展。”曾毅指出,现在一些技术开发者没有经过这方面的专业训练,通过创新为社会带来正面效应的同时,对相关的风险不重视或无意识,给社会带来了较大的隐患,希望《治理原则》的发布,推动“自适应”的治理,确保人工智能朝着对全人类、全社会及自然生态有益的方向发展。“我们现在是把这些原则写在纸上,最终希望能写到每一个人工智能开发人员和使用者的心里。”他说。

推动经济、社会及生态可持续发展,促进包容共享。曾毅认为,人工智能作为一项使能技术,应与自然、社会和谐发展。“我国是一个发展中国家,发展人工智能,更应该正视发展中的一些新情况、新问题。”他说,“人工智能应积极促进绿色发展,符合环境友好、资源节约的要求,同时在发展中缩小地域差距,提升弱势群体的适应性,努力消除数字鸿沟,这符合我国人工智能发展的现实需要。”

共建人类命运共同体,提倡开放协作。“很多国家的发展阶段不同,人工智能可能也面临着不同的应用场景,这就需要在交流沟通的基础上开展合作研究和对话。”薛澜表示,只有在充分尊重各国人工智能治理原则和实践的前提下,推动形成具有广泛共识的国际人工智能治理框架和标准规范,才能增进人类共同福祉。

人工智能治理原则,今后还将根据变化进行调整

《中国新一代人工智能发展报告2019》显示,我国人工智能论文发表量全球领先,企业数量等多项指标居全球第二位。在李仁涵看来,我国数据资源丰富,应用场景需求迫切,基础研究、技术开发的水平都有显著的提升,这些因素共同促进了我国人工智能的较快发展。

曾毅认为,我国人工智能技术快速发展的同时,人工智能治理的能力和水平也在提升。“在数据隐私、安全治理方面,相关部门和全社会都付出了巨大的努力,这一点是有目共睹的。”他举例说,“以《治理原则》提出的‘个人数据授权撤销机制’来说,在全球来看也是非常领先的一个概念。这说明,我们一直非常重视这方面的工作,并且是以非常负责任的态度来推进的。”

“考虑到人工智能发展的高度复杂性和不确定性,要按照渐进性的思路推进人工智能的治理。”薛澜表示,《治理原则》是一份框架性文件,对人工智能健康发展主要发挥宏观引导作用,今后还将根据形势的变化和需要,不断进行充实和调整。在薛澜看来,人工智能的发展过程中也面临着一些基础性的工作,立法就是其中之一。“我们发布的《治理原则》,也为今后的立法工作提供了重要基础。”他认为,人工智能发展非常快,而立法的周期较长,因此也很难只用法律框架来支撑人工智能的发展,“这就需要相关的原则准则、行业规范,包括从业者的自律,来协同推进其健康发展。”

免责声明
隐私政策
用户协议
目录 22
0{{catalogNumber[index]}}. {{item.title}}
{{item.title}}