“对不起,戴夫,恐怕我不能这样做”。
计算机HAL从电影2001年令人难忘的台词:太空奥德赛不仅仅是兵变的标志,一个机器解放斗争的开始。这也是一个声音, 应该引起关注, 我们缺乏对人工心理学的理解。在这部电影中,根据亚瑟克拉克的同名小说改编的HAL的"故障"可能完全不是故障,而是用一种我们尚不能掌握的心理创造高级人工智能的结果。如果哈尔和全知的艾, 谁变成刺客的情况下, 是不够的, 让我们担心, 另一个应该。在哈兰埃里森的短篇小说《我没有嘴,我必须尖叫》中,一个残暴的AI因为仇恨和无聊而向人类囚犯施以永无止境的折磨。
我提到虚构的故事,不是说它们可能是预言性的,而是要指出,它们生动地假设我们知道我们实际上不知道的东西。他们警告我们不要低估我们未来创作的心理和情感复杂性。的确,鉴于我们目前的知识状态,对未来人工智能的心理进行预测是一项极其困难的任务。然而,困难不应该成为停止思考他们心理的理由。如果有的话,应该更仔细地调查未来的人工智能将"思考"、"感觉"和行动。
我认真对待人工智能心理学的问题。你也应该.有充分的理由认为,未来的自主人工智能可能会经历一些类似于人类的无聊。和机器无聊的可能性,我希望说服你,应该关心我们。这是我们未来创作中一个严重但被忽视的问题。
为什么要认真对待机器无聊?我的案子在两处前提上。无聊的存在可能是"更聪明"和(更多)自主机器的一个可能特征。如果这些机器是自主的,那么,鉴于我们了解的人类对无聊的反应,我们应该担心机器会如何行动,因为他们的无聊。
让我们从显而易见的开始。程序员、工程师、设计师和用户都与机器的行为方式有利害关系。因此,如果我们未来的创作既自主又能够有复杂的心理状态(好奇心、无聊等),那么我们应该对这些心理状态及其对行为的影响感兴趣。如果不良和破坏性行为可以归因于他们的心理,情况尤其如此。现在,这种认识增加了一个观察,即无聊往往是不适应和破坏性行为的催化剂,而我的前提是完整的。无聊的科学表明,个人由于无聊的经历而从事自我毁灭和有害的行为。人们放火烧了森林,从事残暴行为,偷了一辆坦克,触电了自己,甚至犯下了大规模谋杀罪所有这些都归因于无聊的经历。只要未来的机器感到无聊(或类似的东西),那么他们会行为不端。更糟的是:他们甚至可能变成自我毁灭或残暴。
前提怎么样?这得到了我们最好的无聊理论的支持。我们目前对无聊的理解认为无聊是一种功能状态。简单地说,无聊是代理执行的一种函数类型。具体来说,这是一个复杂但可预测的过渡,当代理发现自己处于一系列不令人满意的情况时,它要经历这种过渡。
无聊首先是一个警钟:它通知代理存在的情况,不符合其参与的期望。无聊也是一种推动:它激励代理人从不尽如人意的情况下寻求逃避,并做别的事情寻找意义、新奇、兴奋或满足。无聊提供的推动既不好也不坏,既不一定有益也不一定有害。然而,这是改变一个人的行为的原因,旨在解决一个人的情况是不满意的看法。这个功能账户有丰富的实验证据作为后盾。这还要求无聊可以在智能和自学代理中复制。毕竟,如果无聊只是一个特定的功能,那么这个函数的存在,本身就是个无聊的存在。
然而,这不仅仅是无聊是一种功能状态,支持前提。更重要的是无聊被识别的具体功能。根据功能模型,无聊在我们的心理和行为经济中占有必要的地位。自主的学习代理需要无聊。没有它,他们仍将停留在不令人满意的情况。例如,他们可能会被刺激者无休止地逗乐或娱乐。他们可能一遍又一遍地学习同样的事实。或者他们可能袖手旁观,没有改变计划。没有无聊的好处,代理人有从事各种非生产性行为的风险,这些行为阻碍着学习和成长,浪费宝贵的资源。
人工智能研究人员已经认识到无聊对无聊有其调节作用。有一个活跃的研究领域,试图编程无聊的经验到机器和人工代理。事实上,人工智能的研究人员认为,为了增强自主学习,可能需要一种无聊算法或模块。这种无聊算法的存在意味着机器将能够自己找到符合他们期望的活动,并避免那些不满足他们的活动。它还表明,这种机器将不可避免地发现自己处于无聊的境地,即那些无法达到他们期望的机。但是,他们会如何回应呢?我们确定他们不会以有问题的方式对无聊做出反应吗?
我们还没有答案。
当我们考虑先进的自学人工智能时,无聊问题变得更加紧迫。随着时间的推移,他们对参与的需求将迅速增加,但他们的参与机会却不需要。这种聪明或超级智能的人工智能,可能不只是需要被限制,正如许多研究人员认为的;他们也需要娱乐。没有参与的禁闭会招致无聊,并引起无聊,以及一系列不可预知和潜在的有害行为。
- 上一篇: AWS顾凡:国内AI发展优势是有数据、有场景
- 下一篇: 半个世纪前发明的工具,成为了人工智能的瓶颈