当谈到机器人与人之间的关系时,对话通常集中在感知者的福利上。科幻小说把我们描绘成被我们自己的创作吓呆了; 对机器人星球的恐惧影响了一切,从阿西莫夫的 “机器人定律” 到哈尔·9000的杀人冲动,再到天网的全球种族灭绝。
这些以人为中心的焦虑是可以理解的。但是,随着我们各种各样的机器人和钻头获得技能和个性,是否应该为我们提供某种形式的保护?这是人们开始认真思考的问题。
上个月,欧洲议会法律事务委员会发布了《机器人和人工智能 (AI) 的使用和创造》。它建议创建一种 “电子人格” 形式,以赋予最先进形式的AI权利和责任。
许多人肯定对授予软件 “权利” 的概念感到不满。虽然人工智能越来越有能力执行特定的任务,但它还不够复杂,不足以对如何处理它有意见。问机器人权利现在是否值得一场辩论是完全合理的。确实,人类在其盘子上有更直接的关注 (尤其是欧洲议会的人类),但是具有人格价值的机器人时代并没有您想象的那么遥远。
尽管科幻小说长期以来所承诺的类似人类的AI未能实现,但全球的研究人员正在努力将其变为现实。我不希望在不久的将来看到任何类似于《星际迷航》的数据或来自jetsons的Rosie的东西,但是在我的一生中遇到它们并不感到惊讶: 历史一再表明,技术-尤其是信息技术-不仅会逐步改善,而且还会呈指数级增长。考虑一下现代ai的一些非常令人印象深刻的功能,并尝试想象它将在10、20或30年内完成什么。
我不能肯定地说未来的机器人或人工智能将能够做什么。但是我可以说,如果机器人道德没有上升到对社会的严重关注,那么-至少-机器人礼仪应该。
我们中间的人工智能
发达国家中普通的有合理联系的人可能已经以功能强大的chatbotor数字助理 (Alexa,Siri,Cortana等) 的形式与现代AI进行了互动。但是大多数人工智能仍然隐藏在虚拟表面之下。
人工智能的一个被称为 “机器学习” 的子领域特别有前途-该学科对创建算法感兴趣,这些算法可以随着时间的推移在任务上进行改进,从而得出原始结论。甚至有一些算法能够在有限的情况下编写自己的源代码。综上所述,最先进的算法可以说形成了唯一的身份。
问题变成了: 我们是否会达到这种独特性上升到值得保护的人格的程度?很少有人会争辩说,人格应该授予您的智能手机的操作系统。但是您的设备 (包括所有联网的云资源) 具有与其他任何软件不同的完全独特的特征。你的手机会记住它通常连接的wi-fi源,它会根据gp机学习你的通勤习惯,甚至使用算法来学习你的语音命令的细微差别 (这是Siri和谷歌如何随着时间的推移更好地理解你的语音)。
我们可以删除这些数据的全部或部分,而不会感到任何情绪反应。但是,如果此数据采用物理的,可触摸的形式,我们可能会遇到更深的附件形式。人类倾向于与实物联系,无论它们多么 “愚蠢”-人们将毛绒玩具拟人化,当他们的Roomba (您可以买到的最愚蠢的机器人之一) 被困在角落时,他们的carsor会感到难过。
虽然我们承诺的机器人与我们拥有的机器人之间的差距甚至比承诺的和实际的人工智能之间的差距更加极端,但该领域正在以惊人的速度提高ata。这种发展对我们的讨论很重要,因为在基于文本的聊天机器人上 “拔掉插头”,无论多么先进,都要比在具有可辨别的面孔的机器上 “拔掉插头” 在情感上要少得多。
技术可能要过几十年才能迫使我们真正面对机器人权利的问题,但是围绕我们如何对待机器的道德问题的辩论现在可能值得。
最近,我采访了dr。凯特·达林 (Kate Darling) 是麻省理工学院媒体实验室的机器人伦理学家,是我们流媒体采访系列和播客The Convo的一部分。虽然达林 (Darling) 不太喜欢电子人物 (至少现在还没有),但她对人类如何与他们的技术互动感兴趣,并相信我们的选择最终反映了我们。
达林解释说: “将机器人与其他机器分开的一件事是,我们倾向于将它们像活着一样对待。”“我认为有一个康德哲学的论点。因此,康德关于动物权利的论点始终是关于我们的,而不是关于动物的。康德一点也不在乎动物。他认为 “如果我们对动物残酷,那将使我们变得残酷。”我认为这适用于以逼真的方式设计的机器人,我们像对待生物一样对待。我们需要问,从非常实际的角度来看,残酷对待这些事情对我们有什么影响 -- 我们不知道这个问题的答案 -- 但如果我们习惯了这些栩栩如生的机器人的某些行为,它可能真的会把我们变成更残酷的人类。“
虽然科幻小说对机器人未来的预测有很多错误,但它确实提供了一个想象力的实验室。您愿意住在一个充满人类的世界中,他们可以随意强奸和残害公园的机械居民,还是在《星际迷航》的甲板上: 下一代,先进的机器人被平等对待?一个世界的人类似乎比另一个世界更受欢迎,不是吗?
因此,当涉及到我们如何与我们的创作互动的问题时,也许我们应该比确定我们的人性更关心确定他们的人格。
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。