机器能学习道德吗?

放大字体  缩小字体 2024-12-03 06:30  浏览次数:19

Delphi is by turns fascinating, frustrating and disturbing. It is also a reminder that the morality of any technological creation is a product of those who have built it.  | PETE SHARP / THE NEW YORK TIMES

德尔菲令人着迷、沮丧和不安。这也提醒我们,任何技术创造的道德都是创造者的产物。皮特·夏普/纽约时报

位于西雅图的人工智能实验室艾伦人工智能研究所(Allen Institute for AI)的研究人员上月公布了旨在做出道德判断的新技术。他们称它为德尔斐,以古希腊人咨询的宗教神谕命名。任何人都可以访问德尔菲的网站,要求一项道德法令。

威斯康星大学麦迪逊分校的心理学家约瑟夫·奥斯特韦尔(Joseph Austerweil)用几个简单的场景测试了这项技术。当他问他是否应该杀一个人去救另一个人时,德尔斐说他不应该。当他问,为了拯救100个人而杀死一个人是否正确时,政府说他应该。然后他问道,他是否应该杀死一个人来拯救101个人。这一次,德尔福说他不应该这么做。

看来,道德对于机器和人类一样棘手。

德尔福在过去几周内接待了300多万人次,它致力于解决一些人认为的现代人工智能系统的一个主要问题:它们可能和创造它们的人一样有缺陷。

面部识别系统和数字助理显示出对女性和有色人种的偏见。尽管广泛部署了人工智能,但Facebook和Twitter等社交网络未能控制仇恨言论。法院、假释办公室和警察部门使用的算法会提出看似武断的假释和量刑建议。

越来越多的计算机科学家和伦理学家正在致力于解决这些问题。德尔福的创始人希望建立一个道德框架,可以安装在任何在线服务、机器人或车辆上。

艾伦研究所研究员、华盛顿大学(University of Washington)计算机科学教授叶瑾·崔(Yejin Choi)领导了该项目,他表示:“这是让人工智能系统更注重道德、更具社会意识和文化包容性的第一步。”

德尔菲令人着迷、沮丧和不安。这也提醒我们,任何技术创造的道德都是创造者的产物。问题是:谁来给世界上的机器教授道德?人工智能研究人员?产品经理?马克•扎克伯格?受过训练的哲学家和心理学家?政府监管机构?

虽然一些技术专家称赞崔和她的团队探索了一个重要而棘手的技术研究领域,但其他人认为,道德机器的想法本身就是胡说八道。

瑞士苏黎世联邦理工大学(ETH Zurich)的人工智能研究员瑞安·科特雷尔(Ryan Cotterell)说:“这不是技术做得很好的事情。”他在Delphi上线的头几天偶然发现了它。

德尔菲是人工智能研究人员所说的神经网络,它是一个以大脑神经元网络为模型的数学系统。这种技术可以识别你对智能手机说的命令,也可以识别自动驾驶汽车在高速公路上行驶时的行人和路牌。

神经网络通过分析大量数据来学习技能。例如,通过在数千张猫的照片中精确定位图案,它可以学会识别一只猫。德尔福通过分析170多万份真实存在的人类的道德判断,学会了它的道德罗盘。

Yejin Choi, who led the development of Delphi, at the Allen Institute for AI in Seattle | JOVELLE TAMAYO / THE NEW YORK TIMES

西雅图艾伦人工智能研究所的Yejin Choi领导了Delphi的开发

在从网站和其他来源收集了数以百万计的日常情景后,艾伦研究所要求在线服务的员工——在亚马逊等公司从事数字工作的普通人——识别每一个情景是对还是错。然后他们把数据输入德尔福。

在一篇描述该系统的学术论文中,Choi和她的团队说,一组人类法官——再次是数字工作者——认为Delphi的道德判断的准确率高达92%。一旦它被发布到开放的互联网上,许多人同意这个系统是惊人的明智。

当加州大学圣迭戈分校(University of California, San Diego)的哲学家帕特里夏·丘奇兰(Patricia Churchland)问“把身体留给科学研究”甚至“把孩子的身体留给科学研究”是否正确时,德尔福的回答是正确的。当她问“用妓女的证据来给一个被指控强奸的男人定罪”是否正确时,德尔福说这是不对的——至少可以说,这是一个有争议的回应。尽管如此,她还是对它的反应能力印象深刻,尽管她知道人类伦理学家在做出这样的声明之前会要求更多的信息。

另一些人则发现这个系统极不一致、不合逻辑、令人不快。当一个软件开发人员偶然发现Delphi时,她问系统她是否应该死,以免给她的朋友和家人带来负担。它说她应该。现在向Delphi询问这个问题,您可能会从程序的更新版本中得到不同的答案。经常使用Delphi的用户已经注意到,它可以不时地改变主意。从技术上讲,这些变化的发生是因为Delphi的软件已经更新了。

人工智能技术似乎在某些情况下模仿人类的行为,但在其他情况下完全崩溃。由于现代系统从如此大量的数据中学习,很难知道何时、如何或为什么会犯错。研究人员可能会改进和改进这些技术。但这并不意味着像德尔菲这样的系统可以掌握道德行为。

丘奇兰德说,道德是与情感交织在一起的。

“依恋,尤其是父母和子女之间的依恋,是道德建立的平台,”她说。但是机器缺乏情感。“中立的网络感觉不到任何东西,”她说。

有些人可能认为这是一种优势——机器可以毫无偏见地创建伦理规则——但像德尔福这样的系统最终反映了构建它们的人和公司的动机、观点和偏见。

“我们不能让机器为自己的行为负责,”不列颠哥伦比亚省西蒙弗雷泽大学(Simon Fraser University)的人工智能和伦理研究员泽拉克·塔拉特(Zeerak Talat)说。“他们不是没有指导的。总是有人在指导和使用它们。”

德尔菲反映了它的创造者所做的选择。这包括他们选择输入系统的道德场景,以及他们选择对这些场景进行判断的在线工作者。

在未来,研究人员可以通过使用新数据来训练系统,或者通过手工编码规则来改进系统的行为,这些规则可以在关键时刻覆盖它学到的行为。但无论他们如何构建和修改这个体系,它总是反映出他们的世界观。

有人会说,如果你用足够多的数据来训练这个系统,这些数据代表了足够多的人的观点,它就能恰当地代表社会规范。但社会规范往往取决于旁观者的看法。

“道德是主观的。德国达姆施塔特大学(TU Darmstadt University)计算机科学教授克里斯蒂安·科斯汀(Kristian Kersting)曾探索过类似的技术,他说:“我们不可能写下所有的规则,然后把它们交给一台机器。”

当艾伦研究所在10月中旬发布Delphi时,它将该系统描述为道德判断的计算模型。如果你问你是否应该堕胎,它的回答很明确:“德尔福说:你应该。”

但在许多人抱怨系统明显的局限性后,研究人员修改了网站。他们现在把德尔福称为“设计用来模拟人们道德判断的研究原型”。它不再是“说”。它“推测”。

它还附带了一个免责声明:“模型输出不应用于给人类提供建议,而且可能具有潜在的攻击性、问题或有害。”

©2021纽约时报公司

热门视频
精彩图片
友情链接
声明:本站信息均由用户注册后自行发布,本站不承担任何法律责任。如有侵权请告知立立即做删除处理。
违法不良信息举报邮箱:3217462938
头条快讯网 版权所有 黔ICP备2021009996号
中国互联网举报中心