为什么人工智能不应该做生死攸关的决定?

来源/作者:智能网| 发布:智能装备网|发布时间:2022-11-14|阅读:281

让我向你介绍一下Philip Nitschke,它也被称为“死亡医生”或“协助自杀界的埃隆·马斯克”。

Nitschke有一个奇怪的目标:他想通过技术使死亡“非医疗化”,使辅助自杀尽可能地不受影响。正如我的同事Will Heaven所报道的那样,Nitschke已经开发出了一种棺材大小的机器,叫做Sarco。寻求结束生命的人可以在接受基于算法的精神自我评估后进入机器。如果他们通过死亡测试,Sarco将释放氮气,在几分钟内使他们窒息。一个选择死亡的人必须回答三个问题:你是谁?你在哪里?以及你是否知道当你按下那个按钮时会发生什么?

在瑞士,辅助自杀是合法的,安乐死的候选人必须证明其精神能力,这通常由精神科医生评估。但Nitschke想把人完全排除在这个流程之外。

Nitschke就是一个极端的例子。但正如Will所写的那样,人工智能已经被用于在越来越多的医疗保健领域对患者进行分类和治疗。算法正在成为护理中越来越重要的一部分,我们必须努力确保它们的作用仅限于医疗决定,而不是道德决定。

我可能不是唯一一个对让算法决定人们是生还是死感到非常不安的人。Nitschke的工作似乎是对算法能力信任错位的典型案例。他试图通过引入一种可以做出所谓的“无偏见”和“客观”决策的技术来回避复杂的人类判断。

这是一条危险的道路,我们知道它会导致什么。人工智能系统反映了建造它们的人类,而且它们充满了偏见。我们已经看到面部识别系统不能识别黑人,并将他们标记为罪犯或大猩猩。在荷兰,税务部门使用一种算法试图剔除福利欺诈,但却惩罚了无辜的人–主要是低收入者和少数族裔的成员。这导致了数千人的灾难性后果:破产、离婚、自杀,以及孩子被送往寄养家庭。

随着人工智能在医疗保健领域的推广,以帮助做出一些风险最高的决策,批判性地检查这些系统是如何构建的比以往任何时候都更加重要。即使我们设法创建了一个零偏见的完美算法,算法也缺乏细微差别和复杂性,无法自行对人类和社会做出决策。我们应该仔细思考,到底有多少决策权是我们真正想交给人工智能的。让它越来越深入我们的生活和社会并不是不可避免的。这是人类的选择。

更深入的学习

meta公司希望利用人工智能让人们在元宇宙中拥有双腿

上周,meta公司发布了其最新的虚拟现实头盔。它的价格高达1,499.99美元。在虚拟活动中,meta提出了一个每个人都可以访问的“下一代社交平台”的愿景。正如我的同事Tanya Basu所指出的那样:“即使你是少数能花1500美元购买一个虚拟现实头盔的幸运儿,你真的想买吗?”

meta的人工智能实验室是业内规模最大、最富有的实验室之一,它聘请了一些该领域的顶级工程师。

了解更多关于人工智能背后被剥削的劳动力

在一篇文章中,谷歌道德人工智能团队前联合负责人Timnit Gebru和她的分布式人工智能研究所的研究人员认为,人工智能系统是由劳动力剥削驱动的,人工智能道德的讨论应该优先考虑跨国工人组织的努力。

AI 生成的艺术是新的剪贴画

微软已经与OpenAI合作,在其Office套件中添加了AI DALL-E 2。用户将能够输入提示来创建可用于贺卡或PowerPoint演示文稿的图像。

人工智能乔·罗根采访了人工智能史蒂夫·乔布斯

这是非常令人兴奋的。文本到语音AI初创公司 Play.ht 根据史蒂夫·乔布斯的传记以及它可以在网上找到的所有录音来训练AI模型,以模仿乔布斯在真实播客中的讲话方式。

这些内容相当愚蠢,但用不了多久,技术就会发展到足以愚弄任何人。

参观亚马逊的梦想之家,那里的每一件电器都是间谍

这个故事为我们提供了一种巧妙的方式,让我们看到亚马逊推动在我们的家庭中嵌入“智能”设备的举措到底有多具有侵略性。

(采编:www.znzbw.cn)
反对 0 举报 0 收藏 0 打赏 0 评论 0

免责声明:
本网注明转载自互联网及其它来源的作品,目的在于传递更多信息,并不代表本网赞同该观点或对其真实性负责,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品第一来源,并自负版权等法律责任。
如资讯内容涉及贵公司版权问题,请在作品发表之日起十五天内联系本网删除,否则视为放弃相关权利。

周一至周五 AM9:00 - PM18:00

站务与合作:info@deppre.com

广告与积分:2528074116@qq.com

扫码关注或加入QQ群(577347244)

Copyright ©2024 德普瑞工控工程 All Rights Reserved 智能装备网 - 领先的智能装备采购交易平台,帮助企业轻松做成生意!  ICP备案号:粤ICP备15055877号-8