欧盟人工智能规制路径与我国启示:以《人工智能法案》为研究对象。

DeGao 2025-09-06 19:19:27


摘要:欧盟发布《人工智能法案》根据风险预防理念为人工智能制定一套覆盖全过程风险规制体系,其提出风险分类思路、产品规制路径、负责任独创、实验主义治理理念等对我国人工智能立法规制具有要紧借鉴意义,立法必需性、立法体例、立法内容、立法价值取向是讨论我国人工智能立法四個要紧面向,研究感觉,我国人工智能立法是大势所趋,在立法体例上可以采纳综合性立法方法,单独制定一部人工智能法;在立法内容上实行“事前-事中-事后”全链条监管机制设计;对于立法价值取向,应坚持规范与发展并行原则,制定一部兼具规制治理与产业发展相结合人工智能法,

一、欧盟《人工智能法案》

制定背景与规制逻辑

人工智能具有模糊性、复杂性、自主性、无法占卜性等特征,这给社会带来诸多风险、难题,为确保人工智能发展尊重人权并获得信任,2021年4月21日,欧盟发布《人工智能法案》〔 Artificial Intelligence Act 〕,为人工智能治理供应“硬法”持助,

〔一〕经由立法确保人工智能尊重人权并获得信任

《人工智能法案》提案须要获得欧洲理事会、欧洲议会批准才干变成正式法律,整個过程大概须要数年时间,根据欧洲特定技术环境、社会经济环境、政治环境;欧盟积极推进人工智能方面立法,确保人工智能保障、尊重人基本权利,并全力于促进人工智能领域投资独创,将欧洲打造变成一個可信任人工智能腹地,

1

最先個,在技术应用方面

传统人工智能最先选是“根据规则算法”〔rule-based algorithms〕,它们经由自动执行由程序员编制程序代码规则执行复杂任务,如今“学习算法”〔learning algorithms〕盛行,为实行“学习”,机器学习系统须要无敌算力、大数据持助,

2

第二,在社会经济方面

人工智能加速经济增长、提升各经济体全球博弈力,欧洲各行业正加速推进向智能化转型,欧洲亟需抓住人工智能发展阶段机遇,但人工智能带来社会经济效益同时也给個人或社会带来风险,如利用人工智能欺骗或操纵人类选择,对人基本权利甚至整個社会带来威胁,欧盟一方面想抓住发展时机,另一方面想规避风险,于是须要探寻一条平衡之路,正如欧盟委员会主席乌尔苏拉•冯•德•莱恩〔Ursula von der Leyen〕所言:“为释放人工智能潜力,咱们必需找到一条欧洲道路,在数据流动、广泛运用之间取得平衡,同时保证高水平秘密、保障、伦理准则,”

3

第三,在法律保障方面

欧盟尚缺关于人工智能具体法律框架,虽说欧盟《通用数据呵护条例》〔General Data Protection Regulation,GDPR〕涉及自动化决策系统规制,比方说第22条限定解释权,且第35条限定数据呵护影响评估制度,但是这些限定在执行层面遇到各类挑战,况且各個成员国做法不同,执行起来存在很大不确定性,

4

第四,在政治背景方面

人工智能一直是欧盟委员会就业重点领域,2018年欧盟委员会就任命人工智能高水平专家组〔High-Level Expert Group on Artificial Intelligence〕,并提出可信人工智能伦理指引,同时提出可信人工智能政策与投资主张,2020年2月,欧盟委员会发布人工智能白皮书,确定监管政策选项、以投资为导向路径,2020年10月,欧盟发布系列报告呼吁搞定人工智能系统存在模糊性、复杂性、偏见、无法占卜性、自主性等难题,确保人工智能不侵犯人基本权利,并积极推动法律法规修订,因为这個,该法案是欧盟委员会推进人工智能治理路线一個要紧环节,后世将有更多匹配政策出台,

〔二〕遵循“特征-难题-意向-举措”规制逻辑

该法案以分析“特征-难题-意向-举措”基本思路制定规则,

1

最先個,在特征方面

人工智能与其他新技术相比,具有一定前无古人后无来者性,涵盖复杂性、模糊性,因而引发明显无法占卜性,再加上自动化层次增强,人工智能自主性越来越显著,另外,由于机器学习算法流行,人工智能对数据存在很强依赖性,数据质量直接影响算法质量,

2

第二,人工智能将越来越普遍地运用于人类生产、生活中

比方说自动驾驶汽车、人脸识别;随时大概危害人类社会保障、侵犯人类基本权利,但由于其技术原理复杂性、模糊性、无法解释性,现有法律规则供给不够,监管机构面对规制困境,人们对人工智能丢掉信任、信心,反过来不利于新技术发展,不利于生产力提高,虽说欧盟各個成员国就治理人工智能出台过分散、零碎政策,但是这些政策都呈现出碎片化特征,无法满足欧盟单一市场规制需求,

3

第三,面对这些难题,欧盟委员会确立四项根本意向

涵盖确保人工智能保障与合法、实行对人工智能科学治理、有效执法、弥补法律空白,以及形成人工智能单一市场,

4

第四,为实行前述四项意向,欧盟委员会设计多個规制工具

比方说风险管理体系、质量管理体系以及“监管沙盒”等〔参见图1〕,


图1 欧盟《人工智能法案》基本思路

二、欧盟《人工智能法案》规制理念

《人工智能法案》集中体现欧盟采纳根据风险规制〔risk-based approach〕、倡导负责任研究与独创〔responsible research and innovation〕以及坚持实验主义治理〔experimentalist governance〕理念,

〔一〕根据风险规制

热门话题根据风险规制具有以下特征:

  • 起点是风险,评估风险是根本环节;

  • 不限于于一個特定阶段,而是覆盖规制全过程;

  • 着重灵活性,规制手段伴随风险类型、大小层次实行动态调整,

1

风险评估:根据风险层次级别对人工智能实行分类

欧盟采用根据风险规制思路,具体表现为:对不同样人工智能风险层次实行分类,分为无法接受风险、高风险、有限风险、最小风险,并对不同样风险层次采纳各异监管措施〔参见表1〕,

表1 欧盟《人工智能法案》对人工智能风险分类


2

覆盖全过程:风险管理措施覆盖入市前、入市后

欧盟根据风险规制为人工智能设计全生命周期规制措施,覆盖人工智能产品入市前、入市后阶段,实行事前、事中、事后完整规制,这种机制设计带有德国法“痕迹”,就借鉴德国法“产品跟踪观察”制度,欧盟将人工智能规制周期分成六個阶段:设计开发、设计研发、评估、注册、CE地标〔欧洲一道市场保障地标〕、监测,

1

在设计开发阶段

应奠定、维护风险管理系统,风险管理应该涵盖人工智能系统整個生命周期,就设计、开发阶段就应该实施、维护风险管理系统,风险管理涵盖图2所示四個步骤,

2

在设计研发阶段

具体技术要求涵盖:

①数据治理,应在满足一定质量准则数据上实行训练、验证、测试,采集、标注、清洗数据遵守管理规范,并保障数据具有典型、准确性、完整性,

②技术文件,应在人工智能系统上市之前起草技术文档,向主管机构供应必需技术信息,评估人工智能系统合规性,

③记录保存,人工智能系统在设计、开发时应该有自动记录功能〔日志〕,对风险、损失实行监视,保证人工智能系统整個生命周期可追溯性,

④透明度要求,应向运用者供应人工智能系统准确、完整信息,涵盖人工智能系统供应者、人工智能系统性能、缺陷、人为监督措施等,

⑤人为监督,应设计“人-机”界面工具,利于人工智能系统在运用中受到人监督,并保证人对人工智能系统可实施干预,如经由“停止”开关中断系统,

⑥准确性、鲁棒性、网络保障性,应保证人工智能系统具备适当准确性、鲁棒性、网络保障性,


图2 欧盟《人工智能法案》限定人工智能风险管理步骤

3

在评估阶段

人工智能系统供应商应在系统上市前实行合格评估〔conformity assessment procedure〕,由评定机构对人工智能系统是否满足法案第二章所限定各项要求实行验证,

4

在注册阶段

人工智能系统上市前,供应商应将系统注册到欧盟数据库中,数据库控制者为欧盟委员会,况且数据库向公众开放,

5

在CE地标阶段

供应商应为每個人工智能系统制定一份书面欧盟合规声明〔declaration of conformity〕,同时在人工智能系统上市或投入运用后交由主管机构保存10年,供应商还应为人工智能系统贴上CE地标,在欧盟,加贴CE地标商品表达其符合保障、卫生、环保、消费者呵护等一系列欧盟指令要求,没有CE地标商品无法上市销售,已加贴CE地标入市商品,若发现不符合保障要求,应该从市场上收回,

6

在监测阶段

人工智能系统上市后,供应商应该奠定、记录售后监测系统,收集分析人工智能系统整個生命周期内运作性能数据,入市后供应商奠定监测系统应该以技术文件中入市后监测计划为基石,欧盟委员会将在后世立法中奠定入市后监测计划模板,列出所应涵盖要素清单,供应商还应该就人工智能系统相关事故或故障通知监管机构,就在供应商意识到严重事故或故障15日之内通知相关机构,

3

保证灵活性:敏捷评估风险更迭并火速采纳纠正措施

人工智能技术发展更迭快,其风险层次、风险类型随时发生更迭,预防、规制措施须要适时调整,在风险评估上,法案要求每年对高风险清单实行评估并修改;在技术监测上,法案要求人工智能系统供应者采纳入市后监控措施,涵盖保留日志记录功能,确保人工智能系统在整個生命周期中具有可追溯性;在合格评估上,高风险人工智能系统若发生实质修改,应该重启新评估程序;倘若主管机构发现高风险人工智能系统不再满足法案第二章限定各项合规要求,应中止或撤回签发各类证明,

二〕倡导负责任研究与独创

“负责任研究与独创”〔RRI〕是欧盟在科技发展中提倡要紧理念,并将该理念贯彻在人工智能领域,比方说在2019年4月,欧洲议会秘书处〔Secretariat of the European Parliament〕发布报告《算法可问责、透明治理框架》〔A governance framework for algorithmic accountability and transparency〕,该报告提出应该发挥RRI作用,促进算法实行公平,根据2011年欧盟发布一份报告,RRI是指“社会参与者与独创者互相负责一种透明、互动过程,在该互动过程中探究独创及其产品在伦理方面可接受性、社会可持续性、社会期许性,目是让科技进步嵌入到社会生活中”,其中,伦理上可接受性是指要求符合欧盟呵护人基本权利价值准则、保障呵护水平,因为这個,RRI重心要义是让社会利益相关者一道参与到研究独创中,实行包容发展,

为实行“负责任研究与独创”,具体路径涵盖:

其一,奠定人工智能科学家、工程师道德责任;

其二,研究人工智能伦理设计,最先选意向是将人类伦理道德嵌入到人工智能中,使其具备道德判断本事;

其三,奠定健全人工智能发展政策法规;

其四,推动人工智能跨学科、多主体之间对话,增强社会公众参与层次,

欧盟出台本法案目就是为保证人工智能发展尊重人基本权利,体现RRI理念,另外,法案限定监管机构鼓舞、推动企业起草自愿遵守行为准则,具体要求涵盖环境方面可持续发展、顾及残障人士、让利益相关者参与人工智能系统设计、开发,以及让开发团队多元化;这些要求集中体现欧洲倡导人本主义,就实行可持续发展、科技向善、多方共治、社会包容等人文意向,在行为准则制定方面,法案提出让供应商、行业组织、运用者以及其他利益相关者及其代表组织一道参与,着重社会不同样利益相关者之间互动,

三〕坚持实验主义治理理念

实验性法或实验性规制最新可以追溯到17世纪法国立法,早期实验性法律允许地方政权根据当地环境、预算调整中央制定法律、政策,法律实验也在19世纪为英国皇帝所运用,以实行对特定区域统治,在美国,则允许州在自己权力范围内实验执行多個法律,并在现有联邦倡议范围外实行独创,

实验性规制往往有三個特征:短期性、试错性、协作〔就不同样利益相关者一道参与〕,

查尔斯•萨贝尔〔Charles F. Sabel〕、乔纳森•蔡特林〔Jonathan Zeitlin〕总结欧盟治理实践,提炼出实验主义治理理论,实验主义治理着重在不确定环境中,先奠定临时性行动框架,再在执行过程中对临时性框架实行修正,这一理论所倡导方法具有灵活性、敏捷性,“监管沙盒”〔regulatory sandbox〕正是在这一理论指导下引发一种制度设计,

在计算机领域,“沙盒”指隔离测试环境,就允许一個监督系统阻止有害程序侵害电脑系统,在规制领域,规制沙盒指在人为创造规制环境中测试新服务、产品,

欧洲理事会将监管沙盒定义为“在限定时间、行业领域或区域,以合适真实环境测试独创技术、产品、服务或方法,……,经由一定规制监督保证保障”,

“监管沙盒”最新来自于金融领域,因金融领域存在系统性风险,传统监管手段是事后监管,监管本钱较高,不利于金融独创,监管沙盒机制满足弹性监管原则,体现事中监管、动态监管理念,能促进监管者与被监管对象之间协作,为平衡欧洲人工智能领域独创与监管之间矛盾关系,法案引入监管沙盒机制,

“人工智能监管沙盒”是指人工智能系统入市或投入运用前,主管机构供应一個受控环境,在指定时间内对人工智能系统实行开发、测试、验证,对人工智能系统开展沙盒实验时,一旦发现对人健康、保障、基本权利引发任何风险,应采纳措施立就降低风险,

三、对欧盟《人工智能法案》基本评价

欧盟《人工智能法案》作为全球最先部人工智能立法,引入市场规制路径,并采纳全链条规制措施,这些规制措施也引发一些分歧,比方说规制有效性、对人工智能界定、分类合理性都受到业界质疑,

一〕引入市场规制路径,责任机制存在缺陷

欧盟以监管产品思路来监管人工智能是一种有效路径,因人工智能发展绝对伴伴随相关产品进入市场得以推广、应用,对人工智能产品设定市场准入门槛、奠定全生命周期监测体系可以保障人类保障,提高人工智能可信赖度,

各個国家在消费者呵护、产品质量监管方面都奠定成熟制度体系,将人工智能产品纳入现有规制体系中,并对现有体系实行调试、完善,无疑是一种全效、便捷治理路径,

为匹配人工智能法案实施,欧盟将修订涉及人工智能相关产品产品责任规则,修订行业保障方面法律规则,如机械指令〔machinery directive〕,

从法律适用疗效看,法案依据“疗效主义”〔effects test〕原则限定“长臂管辖”,就任凭人工智能产品供应者在何处,只要其生产人工智能系统运用于欧盟区域,就须要遵守法案要求,这与GDPR法律适用原则是一致,就最大层次上呵护欧盟公民权益,

以规制对象看,法案侧重于对人工智能产品供应者实行规制,涵盖要求人工智能供应者开展风险评估,秉持“谁供应谁负责”原则,

但人工智能产品运用者也是要紧责任主体,以人脸识别技术为例,最后负责日常运作实际上是运用者,比方说由物业公司运作,人脸识其他大一部分风险大概来自于运用者日常运作活动,比方说运用者自身违法行为,而现在人脸识其他供应者已经脱离技术运用场景,

法案仅要求人工智能产品供应者评估人工智能系统在初期风险是不够,应将实际参与运作运用者纳入责任体系中,加大运用者预防、规避风险责任、义务,

〔二〕超前制定监管措施,引发妨碍产业发展担忧

欧盟在数字领域立法一直走在世界前列,对于政府机构出台规制政策,实务界总会充盈担忧,这次欧盟发布人工智能法案同样引起很多质疑,有观点感觉欧盟颁布人工智能法案将使人工智能企业在欧洲承担过高本钱,况且大一部分合规要求在技术上无法实行,

比利时智库欧洲国际级政治经济腹地〔European Centre for International Political Economy〕一项研究分析对科技公司事前监管本钱,以2018年数据为基准,事前监管导致高达850亿欧元GDP损失、1000亿欧元消费者福利损失,这种观点感觉欧洲在人工智能领域发展本来就相对滞后,欧盟实施GDPR、后世人工智能法案将迫使创业者、独创者转移至监管环境宽松地方,因为这個欧盟委员会超前、过度监管会进一步强化欧洲人工智能产业落后局面,欧盟委员会在设计法案时对过度监管难题有一些探究,涵盖采用分级监管思路,将人工智能系统风险区分为低、中、高等不同样级别,并对高风险人工智能附加监管要求,欧盟委员会占卜行业里大一部分人工智能应用将落入在低风险类别中,因而感觉法案对人工智能产业发展负面疗效有限,

另外,为呵护行业独创,法案还引入监管沙盒机制,为人工智能开发者供应一定独创自由度,但任凭如何,诸多事前监管环节都将影响人工智能开发进程,总体上看,欧盟《人工智能法案》属于偏规制型立法文件,其对产业促进方面限定较少,

三〕过于倚重企业自治,规制有效性受到质疑

该法案对人工智能系统供应者附加合规评估义务仅涉及内部程序,缺乏外部监管,最先选由供应者自我评估来证明存在高风险人工智能系统遵守法案,对此,非政府组织欧洲数字权利〔European Digital Rights〕感觉,该法案给企业自我规制空间过大,欧洲数据呵护委员会〔以下简称“EDPB”〕、欧洲数据呵护专员公署〔以下简称“EDPS”〕也提出因缺乏对人工智能系统供应者是否遵守其行为准则监督机制,大概降低这一治理工具有效性、可执行性,况且法案对批准入市后人工智能系统监管过于宽松,这种对人工智能系统入市前、入市后错误称监管也将降低规制有效性,因人工智能系统一旦被开发、运用,便会火速普及、扩散,

四〕对人工智能实行明确定义、分类,但界定、分类合理性受到质疑

法案对人工智能定义不清晰,况且定义得非常宽泛,根据法案定义,从输入法单词占卜到各类App自动推送、从语音助手到地图领航,接近所有常见互联网服务都会被纳入或一部分纳入监管范围中,人工智能技术更迭、演进飞快,如今“智能手机每天搞定事情在20年前被感觉是‘人工智能’搞定事情”,对人工智能实行定义要么“迷失”于各类概念中,要么对人工智能定义滞后于技术发展露状,对此,为提高监管精准度,法案以列表格局对监管对象实行明确,但技术是连续演进,总是存在“挂一漏万”缺陷,比方说该法案没有将深度伪造〔deep fake〕界定为高风险应用,EDPB、EDPS指出,法案列出高风险清单存在遗漏,没有涵盖运用人工智能系统确定确保费或者评估医疗方法适用于健康研究目场景,

四、欧盟《人工智能法案》对我国启示

人工智能作为一种颠覆性技术,将改变就业结构、冲击法律与社会伦理、侵犯個人秘密、挑战国际级关系准则;甚至对公共管理、经济保障、社会定鼎乃至全球治理等带来久远影响,因为这個,针对人工智能引发各类难题以立法手段予以应对已是势在必行,

〔一〕人工智能立法必需性难题

相比于传统科技风险,人工智能引发风险更具有复杂性、系统性、无法预见性,将引发一系列严峻治理挑战,先说,人工智能强技术性特征,加剧监管者、社会公众与技术人员之间信息错误称,新型风险超出传统监管范围,人工智能应用往往跨多個行业、多個政府机构、多個司法管辖区域、利益相关者团体,大幅增加协调监管难度,人工智能发展速度远远超过任何传统监管体系更新调整步伐,人工智能风险、收益、发展轨迹都具有高度不确定性,事前、具有前瞻性监管决策将变得愈加困难,现有监管机制、法律规则显得滞后,

以“软法”治理人工智能变成全球治理新势头,据美国亚利桑那州立大学软法治理项目汇编统计,2001至2019年,全球共发布634個人工智能软法项目,另外,算法观察组织〔Algorithm Watch〕梳理一個在线人工智能伦理准则全球清单,截至2020年6月,共列出超过150個框架、准则,而“软法”治理也存在明显缺陷,因缺乏法律强制约束力,“软法”无法真正发挥约束效用,

以伦理规范为例,学界Follow到“伦理洗白”〔ethics washing〕难题,虽说企业奠定内部伦理委员会,但依旧频繁发生伦理危机大事,实际上伦理委员会治理模式存在难题,因企业伦理委员会缺乏独立性、透明性、外部监督,容易受到企业利益“绑架”,为此,应将广泛接受伦理准则上升为法律规则,经由立法将“软法”硬化,并奠定配套惩罚责任制度,将相对成熟“软性约束”落到实处,因为这個,人工智能立法是一条绝对出路,

据咨询公司Cognilytica发布《全球人工智能法律、规范报告》〔Worldwide AI Laws and Regulations〕显示,目前大多数国家对人工智能立法秉持观望态度,由于立法机构尚无法判断新技术给社会引发实际影响,对人工智能实行立法面对艰巨挑战,该报告显示,欧盟在提议、制定新立法方面表现得最为活跃,目前已经对涵盖人脸识别、自动驾驶、自动化决策等人工智能应用提出立法方案或发布正式规则,美国则一直维持较为宽松规制态度,总体上看,以美国、欧盟为代表一些国家、地区在人工智能相关立法方面采纳基本策略是差别化、场景化,就对人工智能不同样应用领域实行特意立法,

在我国,2017年7月20日,国务院印发《新一代人工智能发展规划》在战略意向中对法律体系建设提出三步走要求:

到2020年,一部分领域人工智能伦理规范、政策法规初步奠定;

到2025年,初步奠定人工智能法律法规、伦理规范、政策体系,形成人工智能保障评估、管控本事;

到2030年,建成更加完善人工智能法律法规、伦理规范、政策体系,

我国地方层面已经有立法尝试,比方说深圳出台最先部人工智能地方性法规,深圳立法坚持促进性立法理念,体现“全面促进与合理必需规范”,重心目是“促进人工智能产业发展”,我国已经完成《网络保障法》《数据保障法》《個人信息呵护法》等立法就业,这些法律规则作为底层规则基石为人工智能健康发展供应坚实保障,但在人工智能应用层面,相关立法依旧缺位,一些人工智能应用已经进入法律空白区,因为这個,须要加快人工智能立法研究,极具是应就人工智能产品、流通实行立法规范,才干百分之百保障社会、個人保障,

〔二〕人工智能立法体例难题

国内很多观点提出对人工智能实行特意立法,比方说吴汉东提出人工智能是高科技行业,其自身不确定因素相对多,且该领域发生监管难题具有鲜明特殊性,因而须要确立一部特意监管法加以规范,

胡元聪等提出出台《人工智能发展法》、《人工智能监管法》,他们感觉《人工智能发展法》针对智能产品质量保障、检测难题及各项技术准则实行规范,《人工智能监管法》则搞定监管原则、监管职责划分、监管者、被监管者违法责任、监管具体措施以及各项程序性难题,

朱体正提出应当制定一部人工智能单行法并辅以配套法律法规、法律解释及伦理准则,确保人工智能运行保障权威,风险合理控制,

也有观点提出对既有科技法规则实行调整,让人工智能立法变成科技法极具法,比方说龙卫球提出以人工智能科技作为特殊规范对象,将其定位为科技法极具法,从人工智能科技市场、科技风险、科技政策等具体难题入手,经由对既有科技法价值继承、发展,对既有科技法规则实行改良、调整,形成一套特意适用于人工智能研发、应用具体规范体系,

目前,用于应对人工智能风险制度规则过于分散,况且法律位阶较低,不利于相关机构开展监管活动,也不利于企业自我合规,因而应为人工智能制定一部特意综合性法律,将人工智能用于不同样场景中所遵循共性规则实行提炼,变成规范人工智能多场景应用基本规则,对此,申卫星提出须要构建综合性立法、具体场景立法相结合“总-分”式立法体系,综合性立法是实行人工智能顶层设计最优格局,他感觉经由特意中央立法可以强有力地指导各地、各领域人工智能发展;具体场景分别立法领域涵盖自动驾驶、自动化决策、精准医疗;区分不同样行业、场景对人工智能技术实行规范,本文也感觉应为人工智能制定一部单行法,因综合性立法比分散立法规范效能高,

〔三〕人工智能立法主体内容难题

危险是无法改变客观存在,但可以经由采纳相关措施方法减小危害大事发生大概性或者后果严重层次,风险管理就是研究风险发生规律、风险控制技术管理科学,

对人工智能风险管理涵盖对数据质量、算法质量、设计人员伦理素质等管理,况且看重对过程、结果控制,

借鉴危机管理生命周期框架,可以从风险管理〔事前〕、应急管理〔事中〕、善后学习〔事后〕三個阶段提出应对人工智能风险举措,

在风险管理阶段,涵盖风险预知、风险研判、风险预警;

在应急管理阶段,涵盖应急响应、应急处置;

在善后学习阶段,最先选是总结反思并重建,

比方说2021年国家级信息保障准则化技术委员会发布《网络保障准则实践指南——人工智能伦理保障风险防范指引》,该文件遵循人工智能研发、应用生命周期逻辑,将研究开发者、设计制造者、部署应用者以及运用者都纳入行为规范范畴,因而,本文提出应实行“事前-事中-事后”全链条监管机制设计,

在事前阶段,在人工智能产品流入市场前实行风险评估,实行风险管控;

在事中阶段,实行持续市场监督,实施产品召回制度;

在事后阶段,实行善后学习,实行人工智能风险事故数据共享、风险监测,

具体举措如下:

1

先说,在事前阶段

可以采纳分类分级思路,根据人工智能在不同样应用场景风险层次匹配各异规制措施,对于那些对人类保障、人格尊严、自主意识引发显著危害应用采纳禁止措施,比方说禁止开发者工智能武器,而对于其他一些风险可控人工智能应用采纳风险管控措施,涵盖风险评估制度、备案注册制度等,

2

在事中阶段

须要奠定人工智能产品后续观察义务制度,人工智能产品生产者是风险源开启者,况且是利益获得者,应负有产品跟踪观察义务,人工智能产品生产者产品跟踪观察义务涵盖:要求企业奠定内部产品质量监控机制,保障产品在生产过程中符合各项保障指标,还应奠定产品质量信息反馈机制;生产企业应火速向社会公众发出警示信息,让运用者或社会公众解产品风险信息,将大概危险降低;奠定缺陷产品召回或强制销毁制度,一旦发现产品有缺陷或风险后,生产企业除发布警示信息外,还应该供应修理或召回政策,将在市场上流通产品火速召回,

3

在事后阶段

奠定人工智能风险数据平台增强风险监测、预防,人工智能产品具有高速扩散特征,一旦须要召回大概存在诸多困难,奠定统一、科学、权威检测监控体系是奠定召回制度基石,在美国,缺陷消费品信息最先选来源涵盖企业义务报告,因企业在早期阶段就解产品潜在保障难题,义务报告是最火速信息来源,另外,还涵盖伤害事故档案、死亡证明文件、深度调查文件、国家电子伤害监视系统、24小时全民免单热线等,在欧盟,缺陷消费品信息最先选来源于欧盟非食品类消费品高速预警系统〔RAPES〕,该系统已经在欧盟范围内实行全覆盖,欧盟内部可以高速交换、传递产品质量保障信息,该系统是一個集消费品质量保障风险信息收集、监测、风险评估、风险应对、风险处置为一体消费品风险管理信息化平台,可见,欧盟形成以法律体系为基石、以风险管理为重心、以多元主体为力量产品召回制度,而在我国,缺陷产品信息来源为消费者主动供应消费品缺陷信息、网络舆情中产品事故、伤害报道、国外监管机构外部召回、预警信息,信息来源质量不高且缺乏专业性、系统性,应该拓宽缺陷信息采集渠道,搭建人工智能风险数据平台,实行风险监测、预防,

四〕人工智能立法价值定位难题

人工智能立法应该是规范与发展并行立法,政府立法难免引起产业界担忧,数据呵护立法就发生此类情形,欧盟出台GDPR时,很多观点提出此类规制法案将影响产业发展、技术独创,比方说《金融时报》报道GDPR实际上有利于那些已经积累海量运用者数据企业,2020年12月《欧洲博弈杂志》发布一项研究也说明,GDPR损害中小企业利益,实际上有利于大型平台企业,欧盟发布《人工智能法案》也引起类似担忧,据数据独创腹地〔Center for Data Innovation〕发布报告占卜,欧盟《人工智能法案》将给欧洲经济增加超过300亿欧元本钱,极具是因人工智能定义模糊性、不确定性,企业将面对沉重合规压强、隐性本钱,

对于立法与规制是否会阻碍产业发展、技术独创,国内学界也有不同样观点,一些来自企业智库研究人员感觉,在过去20余年互联网发展中,欧盟落后于美国、中国一個最先选因素就是法律政策,因欧盟在平台责任、秘密呵护、网络版权等方面比美国更早制定规则,未能给欧洲互联网独创供应适宜法律制度土壤,周汉华对此实行否定,他反对这种贴标签研究方法,他提出无法将制定個人信息呵护法与阻碍独创划等号,也无法将不呵护秘密与更有利于独创划等号,制造秘密呵护与独创无法兼得局面,政府立法与规制行动对产业发展实际影响须要扎实实证研究支撑,很难直接下定结论,任凭如何,应始终坚守一個基本原则,就政府对产业治理根本出发点是为实行更非常好发展,在推动立法过程中,也应坚持规范与发展并重原则,《深圳经济特区人工智能产业促进条例》作为我国人工智能领域最先发地方性立法,明确对人工智能产业实行包容审慎监管方针,同时着重运用政策指南、沙盒技术、应用试点等监管工具,深圳作为人工智能产业发展较为火速区域,已经开展立法活动,可以为国家层面人工智能立法供应经验。

作者:曾雄1,2、梁正1,2、张辉1,2

1 清华大学公共管理学院

2 清华大学人工智能国际级治理研究院

项目来源:科技独创2030“新一代人工智能”重大项目“重点领域人工智能治理挑战及对策研究”〔2020AAA0105300〕

本文转载自微信公众号电子政务杂志,原载于《电子政务》2022年第9期

产业 | 工业化 | 数字化 | 人才 | 独创创业 | 颠覆性技术 | 科技指标 | 科技政策 | 前沿技术 | 知识产权 | 智库 |

获取方法如下:


其他系列将陆续呈现,多多Follow哦!

投稿邮箱:***@***.com

很高兴你能耐心的读完我的文章,你一定不想在AI时代错过原创、深挖的消息,请关注DeGao的Twitter,不迷路!

相关资讯