【智能装备网讯】
10月25日,法国总统马克龙(中左)在圣埃蒂安市视察一家智能机器人公司 欧洲议会10月通过一项决议,对执法机构在执法过程中使用人工智能提出要求,呼吁禁止警方在公共场所或者边境检查中实行大规模人脸识别、禁止使用私域人脸识别数据库以及根据行为特征进行预测性监管等。 欧洲议会的决议再次表明了欧洲在数字领域注重道德伦理的态度,欧洲有志于站在伦理的制高点,引导全球人工智能的发展方向。 关注人的数据安全和被滥用 欧洲的人工智能伦理主要关注数字技术的开发者、制造商和运营商的行为规范,以最大限度减少在人工智能技术发展和运用中可能产生的危害。其涵盖范围主要包括数据隐私、偏见、歧视等产生的各类问题,近期和中期的担忧是人工智能对工作和工作场所的影响,长期性担忧关注人工智能技术达到或者超过人类同等能力时所产生的影响。 人工智能伦理涉及的方面较多,欧洲主要关注以下几个方面。 一是隐私。人工智能技术的开发和运用需要收集和使用大量数据,其中包含个人信息。大数据中长期保留的个人信息被攫取和使用的风险较大;机器学习可以帮助从数据中提取信息、发现新模式,并且能够将看似无害的数据转化为敏感的个人数据;通过面部识别软件或对购物、社交媒体的数据挖掘来识别个体身份;人工智能技术被大量用于监视和侦查,即使主体对数据拥有相应权利,但也难以控制训练有素的人工智能模型……这些都可能导致对个人隐私和尊严的侵犯。 二是公平。人工智能由人创造,因此易受人的偏见左右。技术开发人员和用户的价值观会影响人工智能模型的设计和使用,导致系统偏差,尤其是相关程序主要反映特定人群的价值观时,形成偏见和歧视的现象就会更加突出。人工智能系统会不断复制和强化这种偏见,从而造成严重的社会问题,产生深远的影响。 例如,在某些西方国家执法和维护国家安全的过程中,面部识别技术的运用导致黑人等特定人群受到不公平对待;在职业领域,女性更易遭受性别歧视。而且,人工智能系统尤其是深度学习的系统,一般都有掌握其运作的“黑匣子”,使得系统运行的透明度较差,这加深了人们对技术的不信任,使人们更加质疑其公平性。 三是平等。人工智能的发展可以简化业务,较大程度上提高生产效率和能力,增进企业的效益,使企业所有人获得不成比例的收益。但与此同时,人工智能也可能取代某些工作岗位,导致部分人群失业或者收入快速下降,收入差异化现象会更加突出,就业结构呈现两极化趋势,加剧社会不平等问题。 此外,技术逐渐成为一种支配性甚至垄断性的权力。人工智能的发展让谷歌、脸书(元)、苹果、亚马逊等数字大公司拥有更强大的技术能力,获取更多的数据和市场份额,从而巩固市场垄断地位、集聚更大的私权力,导致贫富差距及更加严重的社会撕裂。 四是安全。人工智能的安全因素在于其形成的风险具有不可预知性,亦即难以准确预估和应对不确定性导致的安全问题,比如设计漏洞、设计不当引发的安全风险,操作不当、恶意使用引发的安全问题,等等。 深度学习可以不断提升人工智能系统的能力,但自我提升的过程容易形成新的安全风险,使不确定性持续存在,尤其是超级人工智能不能自主有效应对各类不确定性因素。此外,人工智能技术一旦被恐怖组织或个人获取和掌握,以及被用于战争,会给整个人类带来致命的危害。 相关立法循序渐进 在规制人工智能技术应用方面,欧盟走在了前列,尤其密切关注人工智能可能引发的各类问题,并且率先制定出相关规则。 2018年生效的欧盟《通用数据保护条例》被称为史上最严格的数据保护条例,它明确了数据主体所享有的知情同意权、遗忘权、可携带权等,规定了数据控制者和处理者的责任和义务,设立了数据保护官,增大了处罚力度。人工智能的设计和运行需要获取大量数据,都受到该条例的有效约束。 同时,欧盟委员会于2020年2月发布了《人工智能白皮书——欧洲追求卓越和信任的策略》,提出希望建立卓越和可信任的人工智能生态系统。2021年4月21日,欧盟委员会发布了立法提案——《欧洲议会和理事会关于制定人工智能统一规则(人工智能法)和修订某些欧盟立法的条例》(以下简称“人工智能立法提案”),以期通过建设可信人工智能,获取全球伦理规则制定主导权。 人工智能立法提案经欧洲议会和欧洲理事会审议通过后将成为欧盟的法律,其主要内容包括: 首先,实行分级管理。根据系统的功能和用途,将人工智能应用风险分为不可接受的风险、高风险、有限风险和低风险四类。 对公民的安全、日常生活和基本权利构成严重威胁的,属于不可接受的风险。例如,人工智能系统通过潜意识技术扭曲人的行为或者利用人的弱点,导致对此人或者其他人形成身体或精神上的伤害;公共机构进行社会评分的人工智能系统可能造成部分人群受到不公平待遇。 此外,原则上禁止出于执法目的在公共空间使用实时远程生物识别系统,如面部识别系统。但一些特殊情况除外,如紧急寻找失踪儿童等。 其次,对高风险严格管理。提案将可能发生高风险的领域分为关键基础设施、公共服务、出入境等八类,并且强调所有远程生物识别系统都具有高风险。 提案明确存在高风险的人工智能技术在投入市场之前应当履行相关义务:具有完备的风险评估系统,采取风险管理措施;向系统提供高质量的数据集,检查可能存在的偏见,以规避风险和防止歧视性结果;采取适当的监管措施,尽量降低安全风险;完成提高透明度的相关义务,例如向用户提供清晰、准确和全面的信息,做好记录存档工作以确保结果和过程可追溯,及时提供系统运行及其目的的相关信息以供监管当局查询。 再次,对有限风险提出透明度要求。除对高风险系统提出严格的透明度要求外,提案还明确透明度义务适用于某些风险较低的人工智能系统,例如与人类交互的人工智能系统、情感识别或者生物特征分类系统、深度伪造技术等。 最后,明确监管部门和处罚要求。提案指出,可以成立欧盟人工智能委员会,委员会负责监督新规则的实施和相关标准的制定,并且协调成员国行为、促进成员国分享实践经验。 在处罚方面,针对不同情形设定了相应处罚力度。例如,明确在开发或者使用高风险的人工智能系统中,如果违反相关规定,将处以高达3000万欧元或公司全球年度总营业额2%至6%的行政罚款。 全球影响 欧盟出台了数据保护法律,并即将出台人工智能法律。在人工智能快速发展的时代,欧盟的立法将对欧洲的人工智能设计和应用产生影响,也将在某种程度上引导全球人工智能发展的方向。 一是可能在一定程度上抑制欧洲的人工智能创新。 2021年1月25日美国信息技术与创新基金会发布的报告指出,欧洲的人工智能仍然落后于美国和中国。为改变落后局面,欧盟及欧洲各国进行了大量投资,但是欧洲一直将权利保护与道德伦理作为优先价值选择。《通用数据保护条例》提高了个人数据保护水平,但严格的规定也给企业增加了相当的负担,具体监管上也存在困难。 有专家指出,欧盟委员会的人工智能立法提案可能会在一定程度上阻碍企业创新;美国智库数据创新中心的报告指出,规范欧洲人工智能的新法律可能给欧盟在未来5年内造成31亿欧元经济损失。 二是增大了其他国家的企业进入欧盟市场的难度。 欧盟的法律规定将导致人工智能研发成本上升。同时,立法提案明确了适用范围包括为欧洲提供人工智能系统或服务的全球各类经济体,进口商必须确保外国供应商已经执行了适当的合规评估,符合欧盟法律相关规定,这些严格规范会增加他国企业进入欧盟市场的难度、提高成本,相当于给欧盟市场筑起一道藩篱。 三是有助于欧洲巩固其占据的伦理制高点和规则主导权。 基于制定规范的能力、欧盟市场的规模效应以及形成的道德引导力,欧盟制定的规则常常具有“布鲁塞尔效应”,能够影响其他国家的规则制定。例如,《通用数据保护条例》成为数据保护的范本法律,被很多国家借鉴。而欧盟即将出台的人工智能立法注重伦理建设、权利保护以及风险防范,充分体现了欧洲以人为本的价值观,符合全球对于人工智能发展不确定性的担忧状况。而且相关规范具体、合理,可能再次引领全球数字领域立法的发展方向。 同时,基于价值理念上的差异与鼓励创新的考虑,其他国家可能会更加注重在伦理、权利与自由创新之间寻求平衡,避免损害自身的国际竞争力。 四是将实质性提高人工智能的道德性和安全性。 《通用数据保护条例》及其带来的全球影响较大程度上提高了数据保护水平。欧盟人工智能立法提案明确了分级管理体制,禁止某些人工智能技术,对高风险人工智能的开发和应用提出了合规要求,并设置处罚规定。 立法使一些道德伦理上的要求转化为具体规范,并且具有了法律约束力,可以促使人工智能设计和应用充分体现伦理要求,有效保护个人权利,尽力防范各类风险,从而引导技术向善,避免给个人和社会带来危害。 五是促进全球人工智能监管政策的实施。 由于人工智能的重要性和存在的潜在风险,大部分国家和国际组织都较为重视道德伦理、权利保护和安全问题,并形成了一些提议,但基本上还停留于研究和号召层面,形成了一些原则性内容,而欠缺具体规范,也没有具体落实。对欧盟的人工智能立法,国际社会广泛关注,其他国家和国际组织也会逐渐落实相关提议,开启立法议程并保障规定的实施。
(采编:www.znzbw.cn)