中国日报网11月8日电 据英国《卫报》报道,曾撰写过一本有关人工智能的权威教科书的美国科学家表示,在将人工智能的进步比作原子弹技术的发展时,专家们被自己在该领域的成就“吓坏了”。
美国加州大学伯克利分校人类兼容人工智能中心(CHAI)的创始人斯图尔特拉塞尔(Stuart Russell)教授表示,大多数专家认为本世纪就会开发出比人类更聪明的机器,并呼吁制定一些国际条约来规范这一技术的发展。
他对《卫报》表示,人工智能界还没有适应人工智能技术开始在现实世界中产生真正的重大影响的事实。但是,在人工智能历史上,过往大多数时候都不是这样的专家只是待在实验室里开发产品,试图让这些产品发挥作用,但大多数情况下都失败了。因此,人工智能对现实世界的影响与科学家并没有太大联系,所以科学家必须快速成长、赶上潮流。
人工智能支撑着现代生活的许多方面,包括搜索引擎和银行业务等,而在图像识别和机器翻译领域所取得的进步是近年来的重要发展之一。
拉塞尔在1995年合著了《人工智能技术:一种现代方法》一书。他表示,在紧迫的关键领域仍需要确保人类对有超常智慧的人工智能的控制权。
他指出,人工智能是用一种特定的方法和某种通用方法进行设计的,而在复杂的现实环境中使用这种系统仍然不够谨慎。
例如,要求人工智能尽快治愈癌症可能会有危险。拉塞尔认为,它可能会找到在整个人类中诱发肿瘤的方法,这样它就可以并行进行数百万个实验,把我们所有人都当作实验品。这是因为人工智能在执行我们所设定目标的解决方案;但我们只是忘了作具体说明,忘了告诉人工智能不能把人类当作实验品、不能用全世界的GDP来完成人工智能实验,以及其他的禁忌等。”
他还表示,如今的人工智能技术与《机械姬》等电影中描述的技术仍有很大差距,但未来的机器势必会比人类更聪明。
拉塞尔认,为这一目标最快可以在10年内实现,慢则需要长达几百年的光阴。不过,几乎所有人工智能研究人员都认为这将一展望将在本世纪得以实现。
一个担忧的问题是,机器不需要在所有方面都比人类更聪明,否则会带来严重的风险。拉塞尔表示,这是目前科学家们正在做的事情。如果了解一下社交媒体和那些通过计算给人们推送阅读和观看内容的算法,就会知道它们在很大程度上控制着我们的认知输入。
他表示,结果就是算法操纵着用户,不停地给他们洗脑,这样算法就可以预测用户的行为和喜好,所推送的内容也会获得更多的点赞及收入。
以于人工智能研究人员是否被自己的成就吓到的问题,拉塞尔明确表示,“是的,我认为我们的恐惧正与日俱增”。
这让拉塞尔想起了在物理学领域发生的事情:物理学家知道原子能的存在,他们可以测量出不同原子的质量,还可以计算出在不同类型的原子之间进行转换可以释放多少能量。但是,专家们总是强调这些想法只是理论上的。随后当原子能真正运用到实际生活中时,这些专家还没有准备好。
拉塞尔表示,人工智能在军事领域上的应用,比如造小型杀伤性武器等,十分令人担忧。这些武器是可以量产的,这意味着可以在一辆卡车上安装一百万个小型武器,之后你打开后车厢让它驶离,就足以摧毁整座城市。
拉塞尔认为,人工智能的未来在于开发出一种机器,知道真正的目标是不确定的,就好像人们的偏好也是不确定的一样。这意味着它们在做出任何决定时都必须与人类进行沟通,而不是像管家一样自行决定。但是,这个想法很复杂,尤其是因为不同的人有不同的、或相互冲突的偏好,而这些偏好不是固定的。
拉塞尔呼吁人们采取措施,包括制定研究人员行为准则、立法和条约,以确保使用的人工智能系统的安全,还应该培训研究人员来确保人工智能免遭种族偏见等问题的影响。他表示,欧盟禁止机器模仿人类的相关立法应该在世界范围内实施。
他希望让公众参与到这些选择中来是很重要的,因为公众才是最终受益与否的对象。
另一方面,在人工智能领域取得进步需要一段时间才能实现,但这也不会让人工智能变成科幻小说。
(编译:喻玲萧 编辑:王旭泉)