虚拟的偶联性
偶联性意味着选择和不确定性。这意味着有许多可能的选项可供选择,我们的决定可能总是不同。但是根据定义,算法不知道不确定性;它们不会在诸多可能性之间进行选择,也没有创造力,只是被设计成遵循编程它们行为的指令。从这个意义上说,算法不是偶联的——这就是它们能够如此高效和可靠运行的原因。就像传统机器一样,我们希望算法既非不可预测的,也非怪异的,甚至当它们传递信息时也是如此。如果它们正常工作,不同的手表都应该向所有用户指示相同的时间。正如冯·福斯特所观察到的,如果传统机器的结果变得不可预测,我们不认为它具有创造性或原创性——我们认为它出了故障。我们不关心机器的情绪或观点,只关心它们的结果。我们精确地修复它们是恢复它们的可预测性。
然而,近期的算法则不同,它们的偶联性是一个基本特征。即使这些机器遵循完全确定的路线,我们也希望它们的结果是不可预测的,并产生我们还不知道的东西,即适合与用户的给定互动的新信息。任何人都无法预测预期的结果,并且在自学习算法的情形下也无法预测——这就是我们使用算法的原因,也是它们看起来很有创造力的原因。因此,设计师所面临的困境是制造具有创造力但同时又受控的机器——对无法预测结果的产生进行编程。即使机器是完全确定的,它的行为也应该是偶联的,并对用户的偶联性做出反应。例如,科兹莫(Cozme)是一个基于一系列机器学习算法的现实玩具机器人,被“编程为不可预测”,而非被编程为简单的随机性。科兹莫的行为必须对用户表现出共鸣性和适当性,否则它就毫无乐趣而言。像“Alexa”这样的个人助理应该适当地回应用户的请求,在互动过程中产生新的相关信息。编写智能算法的矛盾目的是以受控方式构建不可预测的机器,目标是控制失控。
算法如何在互动中充当临时伙伴?在某些情况下,机器的偶联性只是其用户偶联性的投影。例如,雪莉·特克尔研究的机器人玩具就是这种情况,它们可以很好地作为沟通伙伴,因为与它们互动的儿童或老人会将他们自己的偶联性投射到它们身上。这种情况总是发生在玩具和木偶上,孩子们玩这些玩具,就像玩具会理解并回应他们的行为。机器人玩具的表现所反映的以及使它们比传统娃娃更有趣的原因不是理解能力,而是以精细和看似反应性的方式“执行理解”的能力。
自学习算法走得更远,可以做一些更神秘的事情。当用户与学习型算法互动时,用户面临的偶联性不是用户自身造成的——尽管此种偶联性也并非机器造成的。机器呈现的视角仍然是一种反映的视角——因为算法本身必然不具备自己的偶联性——尽管它并不简单地反映用户的视角。相反,算法反映和代表的是其他观察者的观点;用户通过机器观察到的是其他用户观察处理的结果。笔者将虚拟偶联性称为算法利用用户的偶联性作为充当有能力的沟通伙伴的一种手段的能力。