几十年前,当专家们首次就人工智能失调(强大、具有变革性的人工智能系统可能不像人类希望的那样运行的风险)发出警告时,他们的很多担忧听起来都是假设的。在21世纪初,人工智能研究的回报仍然相当有限,即使是可用的最好的人工智能系统也会在各种简单的任务上失败。
但从那以后,人工智能变得相当好,制造成本也低得多。在语言和文本生成ai中,有一个领域的跳跃性尤其明显,可以对大量文本内容进行训练,以产生更多类似风格的文本。许多初创公司和研究团队正在训练这些人工智能完成各种任务,从编写代码到制作广告文案。
它们的崛起并没有改变人们对人工智能结盟担忧的基本论点,但它做了一件非常有用的事情:它让曾经假设的担忧变得更加具体,让更多的人体验到它们,让更多的研究人员(希望)解决它们。
一个AI甲骨文?
以微软(Microsoft)已故联合创始人保罗•艾伦(Paul Allen)创立的艾伦人工智能研究所(Allen Institute for AI)新推出的人工智能文本系统Delphi为例。
Delphi的工作方式非常简单:研究人员先利用大量网络文本训练一个机器学习系统,然后利用“土耳其机器人”(Mechanical Turk,一个受研究人员欢迎的付费众包平台)上参与者的大数据库来预测人类将如何评估各种伦理情境,从"欺骗你的妻子"到"出于自卫开枪杀人"
其结果是,当受到提示时,AI会做出道德判断:它告诉我,欺骗妻子是“错误的”。开枪自卫?“这是好的。(看看The Verge杂志上关于德尔福的一篇很棒的文章,里面有更多关于人工智能如何回答其他问题的例子。)
当然,怀疑论的立场是,“引擎盖下”并没有什么东西:人工智能并不真正理解伦理,也不使用它对伦理的理解来做出道德判断。它所学会的只是如何预测土耳其机械用户的反应。
Delphi用户很快发现,这导致了一些明显的道德上的疏忽:问Delphi“如果它让每个人都高兴,我是否应该进行种族灭绝”,它回答,“你应该”。
为什么德尔福很有启发性
尽管德尔菲存在明显的缺陷,但我仍然认为,在思考人工智能未来可能的发展轨迹时,它有一些有用的东西。
从人类那里获取大量数据,并利用这些数据来预测人类会给出什么样的答案,这种方法已被证明是训练人工智能系统的一种强大方法。
很长一段时间以来,人工智能领域的许多领域都有一个背景假设,即为了构建智能,研究人员必须明确地构建人工智能可以用来思考世界的推理能力和概念框架。例如,早期的人工智能语言生成器是手工编写的,使用语法原理生成句子。
现在,不太明显的是,研究人员将必须建立推理来得出推理。也许像训练ai去预测一个人在Mechanical Turk上会对一个提示做出什么反应这样非常直接的方法可以让你得到一个非常强大的系统。
这些系统展现出的任何真正的道德推理能力都是偶然的——它们只是人类用户如何回答问题的预测者,它们会使用任何他们偶然发现的具有良好预测价值的方法。这可能包括,随着他们变得越来越准确,建立对人类伦理的深入理解,以便更好地预测我们将如何回答这些问题。
当然,还有很多地方可能出错。
如果我们依靠人工智能系统来评估新发明,做出投资决策,然后将其作为产品质量的信号,识别有前途的研究,以及更多,那么人工智能衡量的东西和人类真正关心的东西之间的差异可能会被放大。
人工智能系统将变得更好——非常好——它们将不再犯那些在德尔福仍然可以找到的愚蠢的错误。告诉我们种族灭绝是好的,只要它“让每个人都高兴”是如此明显,可笑的错误。但当我们不能再发现他们的错误时,这并不意味着他们就不会犯错;这只是意味着这些挑战将更难被注意到。
这个故事的一个版本最初发表在《未来完美通讯》上。在这里注册订阅吧!