近年来,随着AI技术的不断迭代,加之ChatGPT等生成式AI应用的疾速发展,一定程度也在倒逼世界各国尽快出台配套政策和法案,以规范技术研发路径,并试图预防人工智能产品和服务中可能出现的伦理安全风险和合规风险,推动全产业链正向平稳发展。
目前,我国人工智能的立法工作正在逐步推进。近日,国务院办公厅印发了《国务院2023年度立法工作计划》,其中便提到,在实施科教兴国战略、推进文化自信自强方面,正在预备提请人工智能法草案。
21世纪经济报道记者梳理后发现,目前我国人工智能立法采用了较为多元的规范方式,如制定专门的人工智能法规、在相关法律中加入人工智能相关规定、在相关领域的管理规定中加入人工智能相关内容等。
此外,地方性政策先行,也是我国人工智能立法进程一大特点。如北京、上海、深圳等地,已出台了人工智能相关的地方性政策或指导文件。
有受访专家向21记者指出,从国家现行的监管态度来看,能够看出是有意识针对某一产业领域、特定技术延展块面进行“量体裁衣式”的设计。细化到地方,各地政府有意识地提高产业自主性发展的优先度,根据产业具体发展状况制定个性化发展方案,以及兼顾产业发展风险等方面,亦是我国扶持人工智能产业发展的具体行动。
立法探索步伐加速
我国人工智能相关立法工作的开端,可追溯至2017年国务院发布的《新一代人工智能发展规划》。彼时,这份文件规划的战略目标中便提到,在2025年要初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。
金诚同达律师事务所高级合伙人、律师彭凯向21记者指出,我国目前的人工智能立法,总体来说处于“摸索+提速”的框架式搭建状态。
在“摸索”环节,彭凯认为,我国当前整合式的人工智能相关立法不突出,立法层级较高、具有统辖性质的立法尚未公布,更多的是分散多领域、遍及多产业链的立法,不难看出探索之意。
此外,对比世界各国情况而言,现在具有可参考性的人工智能领域立法的国家较少,世界各国都是在摸着石头过河,很多国家更是没有一部专门针对人工智能的规制性文件。
欧盟是目前制定人工智能相关规则的先行者之一,其于2021年首次公开了《人工智能法案》(The AI Act),并于6月15日通过了欧洲议会的审批。据悉,此次投票通过的人工智能法草案将确保在欧洲开发和使用的人工智能完全符合欧盟的权利和价值观,包括人类监督、安全、隐私、透明度、非歧视以及社会和环境福祉。
而美国目前暂无系统的人工智能立法,相关战略主要依靠行政命令和指导性文件推动。如5月23日,美国白宫发布了《国家人工智能研发战略计划》(The National Artificial Intelligence R&D Strategic Plan),除了对2016、2019年版《国家人工智能研发战略计划》进行了更新,也还提出要评估联邦机构对《2022年国家人工智能倡议法案》(NAIIA)和《国家人工智能研发战略计划》的具体执行情况。
目光回到国内,随着人工智能技术的在2022至2023年的快速发展,两年来我国人工智能相关管理政策可谓“雨后春笋”般涌现,多部细分领域的管理政策先后出台。如《互联网信息服务算法推荐管理规定》(2022年1月)、《互联网信息服务深度合成管理规定》(2022年11月)、《生成式人工智能服务管理办法(征求意见稿)》(2023年4月)等,分别从算法治理、深度合成治理、生成式人工智能治理等不同层面,对技术合规提出了相应要求。
彭凯也提到,就我国当下关于人工智能立法的生效类型来看,大多数多为征求意见稿或仍然处于试行状态,试探意味较高;从立法的类型来看,宣示和倡议色彩较明显的指导原则、规划计划、行动方案等带有前瞻性叙述风格的文件较多;而从立法的应用类型来看,当前立法更偏向于容错意味高的促进发展类型,而类似于试错成本较大的惩罚性、管制类的立法较少。
产业发展全周期治理
今年以来,国内各大互联网企业开启了AI大模型“赛马”,目前已公布的大模型包括百度文心大模型、阿里通义大模型、华为盘古大模型等,均是基于深度学习算法,在自然语言处理、图像识别、语音识别等领域取得了显著进展。
一方面,AI产业的疾速发展,直接加快了我国相关立法的探索进程,也改变了以往的监管逻辑。
对外经济贸易大学数字经济与法律创新研究中心执行主任张欣向21记者指出,诸如《互联网信息服务算法推荐管理规定》和《互联网信息服务深度合成管理规定》两份监管文件,更像是人工智能“1.0时代”定下的规则,“而《生成式人工智能服务管理办法(征求意见稿)》,则是在我国的人工智能发展进入了‘2.0时代’的背景下被公布,其面对的产业链状况和监管逻辑均产生了较大的变化。”她说。
层层嵌套的产业链提高了监管的复杂度。若从产业链层面对AI领域进行切分,可将其分为基础层、技术层以及应用层。
其中,基础层主要包括底层训练数据和提供算力支持的数据中心、服务器、芯片等,技术层包括自然语言处理、深度学习、机器学习等算法以及搭载以上算法的大模型,应用层即人工智能的具体场景,如近几个月来纷纷涌现的ChatGPT、Midjourney、文心一言、通义千问等。
“在人工智能的技术框架逐渐明确的背景下,从基础层到应用层,需要用一个全周期的视角去审视相应的风险。”张欣指出,人工智能本质是一个“综合体”,其立法与技术背后的算法、数据以及平台治理均紧密相关。
因此,在立法过程中如何实现敏捷治理和韧性治理的结合,对于监管方与产业而言均是一种挑战。
另一方面,彭凯则指出,从国家现行的监管态度来看,能够看出是有意识针对某一领域、特定技术延展块面进行“量体裁衣式”的立法设计。具体到各种人工智能可能应用到的产业链上,如医疗、自动驾驶等领域,我国已出台诸如《人工智能辅助治疗技术临床应用管理规范(2022年版)》《汽车驾驶自动化分级》等相应规范。“因此,我们当前的立法对于风险点的考虑是相对全面的,即使无法精确锚定,亦都尝试纳入管理。”他说。
地方政策推动自主创新
除企业布局外,多省市亦开展了人工智能“军备竞赛”。近日科技部新一代人工智能发展研究中心发布的《中国人工智能大模型地图研究报告》显示,以国内大模型区域分布为例,北京、广东、浙江、上海居于第一梯队,其中北京和广东分别有38个和20个大模型在研。
在以上背景下,各地政府也在同步推动人工智能政策落地。如北京、上海、深圳、湖北等地相继出台相关方案,均表现出地方对于人工智能产业的重视与关注。
彭凯观察到,这些地方人工智能相关政策有一共同点,即高度强调产业自主性发展。他认为,未来人工智能领域作为产业蓝海,抢占发展先机,突破关键技术,提升自我核心竞争力是重要的立足点。这不仅是城市与城市、地区与地区之间竞争的要求,也是国家的人工智能发展进程在世界居于前列的基础前提。
如北京在5月30日印发的《北京市加快建设具有全球影响力的人工智能创新策源地实施方案(2023-2025年)》中便指出,在2023至2025年间,实现国产人工智能芯片和深度学习框架等基础软硬件产品市场占比显著提升,算力芯片等基本实现自主可控等目标。
深圳则在《深圳经济特区人工智能产业促进条例》中第十五条提到,开展战略性、前瞻性、系统性人工智能基础研究和关键核心技术攻关,推动学科理论与前沿技术的突破和创新,发挥创新引领和支撑作用。
“突破‘卡脖子’、摒弃‘等靠仿’、坚守‘独敢创’,是未来我各省市国人工智能领域作业理应秉持的发展精神。”彭凯指出。
另一方面,地方性条例“个性化”的特点,也体现了其注重当地产业的发展特色和客观发展情况。“如北京、上海就的定位均包含国际科创中心,深圳则被定义为新型的经济特区和经济开发创新地。指定相关政策时,地方政府也会贴合当地的产业进行点对点设计。”张欣指出。
不过,人工智能威胁论一直是立法领域高度关注的重点。特斯拉CEO埃隆·马斯克曾直言“人工智能的风险远高于核武器”,3月下旬,一封由千余名企业家、学者签署的《暂停大型人工智能实验》公开信中也指出,包括该项技术的研发者在内,没有任何人能真正理解、预测或完全控制这项技术。
因此,地方在鼓励技术创新的同时,也在兼顾潜藏风险与道德伦理的相关问题。如北京便提到“提升人工智能科技伦理治理能力。加强人工智能伦理安全规范及社会治理实践研究”,深圳同样也指出,人工智能发展应“安全可控”并且“应当遵守人工智能伦理安全规范”。
“归根结底,因为人工智能的出现,相当于在原本‘人与人’之间多加入了一个名‘新人’—— 一个以往法律没能囊括进入的‘人’。如果未来某一天,人工智能真正实现‘像人类一样思考和行动’,我们法律是否还能将它当成一个工具,一个机器?这其实不仅对于我国而言是一个巨大挑战,对于全世界各个国家来说亦是如此。”彭凯分享了他的思考。