第2章 没有自力更生的机器人
黄昏时分,你沿着山路开车下班回家,外面刮着风。你昨晚没睡好,而且头疼,所以你打开先进的驾驶辅助系统寻求帮助。汽车现在是自动驾驶的,保持在车道上,并与其他车辆保持安全距离。你松了一口气,开始放松下来。
在转弯时,前灯发出的光表明另一辆车即将转弯向你驶来。突然,“叮”的一声,车开始转向并驶出车道。你猛然抓住方向盘,把车转回正确的车道。如果不这样做,你就会跌进沟里。发生了什么事?为什么驾驶辅助系统要帮助你关闭自动功能?如果在那一刻,你把目光移开,也许是盯着手机,会怎样?你一想到就不寒而栗。第二天,你向汽车公司提交投诉,最终一个软件补丁将被推出到你的模型中。这是个“极端案例”,在制造商的模拟和测试过程中,这是没有预料到的似乎不太可能发生的情况——你的车不知道它所感应到的是什么,所以它把控制权还给了你。工程师认为,在极端情况下,人类比机器人更清楚该怎么做。
当我们想象未来时,我们喜欢想象机器人能够完全接管日常任务。工程师试图设计出能够尽可能减少各种故障的机器人。如图5所示,在现代智能系统中内置了几层防止故障的保护措施。但要制造安全、强大的工作机器人,第一步是要认识到完全自力更生的机器人是一个幻想。失败是生活的一部分,不仅对人类如此,对机器人也是如此,再多的计划和测试都无法改变这一点。期望能够识别或解释日常生活中可能出现的所有错误情况是不合理的,人类世界实在是太复杂了,难以预测。
图5 传统上,自动化系统通过层层保护来减轻和克服已知错误,如通过冗余来减轻主系统的机电故障,发现错误时启动故障检测隔离和恢复,采用故障安全方法来保证人类的安全——即使面临灾难性的系统故障
即使机器人的软件不会出错,它的硬件在某种程度上也会受损。因此,试图使工作机器人真正做到自力更生既不可行也不负责任,特别是在它们将负责至关重要的安全任务的情况下。就像人类在一起工作时效果最好一样,机器人首先需要被设计成好伙伴:对于与它们一起工作的人、与它们接触的人以及它们所在的社会而言都是好伙伴。做一个好伙伴和了解自己的局限性以及知道如何规划这些局限性一样重要。过去的设计方法并未充分发挥人机协作伙伴关系的全部潜力,以致机器人在遇到意料之外的故障或遇到罕见故障时很难向用户提供帮助。
机器人会在很多方面出现故障:物理组件可能会断裂,传感器可能会失灵,可能会停电,系统可能会遇到不可预见和计划外的情况。一些机器人系统——比如自动驾驶汽车——使用的软件太过复杂,很难从数学上列举出我们需要事先验证的所有情况,以确保该系统能够正确运行1。我们人类的世界是复杂且不可思议的。假设人行道上的送货机器人正在穿过城镇中心,它可能会向前倾,表明它想在你周围走动,但这种咄咄逼人的姿态对于推着婴儿车的父母来说可能是不可接受的。如果一群父母推着婴儿车走在人行道上全神贯注地交谈,或者有几个人低着头看手机呢?如果下雨的时候,机器人为了避开水坑而无法为行人让路,但是人们又想快速挤过去避雨呢?或者当两只小狗打闹着穿过小路,把狗绳缠在了机器人身上,而狗主人则围着机器人手忙脚乱,试图解开它呢?
如果机器人的程序只有5个条件决策点,比如检查并回应之前的5个情景,并且必须不断收集20个数据点来识别当前情况和在遍历过程中的响应,这样程序代码中将有1014条可能的路径。如果设计者测试其中一条路径的时间是1毫秒,那么完全测试程序就需要3000多年。这只是一个机器人在一个特定的位置做一项工作。协作机器人的潜力在于机器在各种环境下成功工作的能力。穷尽性的测试是不可能的,所以我们必须对系统进行设计,使其有时以设计者没有预料到的方式运行。
当然,最小化复杂性的一种方法是尽可能地消除人与人之间的互动。人类创造的环境是根本无法控制的实体,但这个想法否定了创造协作机器人的全部意义。在办公室、医院和街道上漫游的机器人必然会与人互动,我们制造机器人首先是为了让人类的生活更容易。
我们可以设计一个系统来减少机器人对人的依赖。在有些情况下,由于技术发展太快或包含太多的组件,人类无法有效地检查机器人的行动。在这些情况下,需要“高水平”的自动化。在做决策时,设计人员需要考虑特殊情况,这一点我们将在本书后面的部分探讨。但大多数情况下,机器人并不需要真正自立,公平地说,人类也不需要。人们会犯错误,会困惑,也会一直向他人寻求帮助。我们在城市里找当地人给我们指路,或者在问询处咨询如何买地铁票。大多数人的生活都离不开我们给予和接受的帮助,机器人也应该能够寻求或依赖人类的帮助。
为了做到这一点,机器人首先需要知道它们所接受的帮助什么时候是真正有用的。特别是当系统需要人来操作时,系统必须经过特别设计以防止人类可能引入的错误。
要解决这个问题,我们首先应该明白人为错误的真正含义。人为错误是指行为(或遗漏行为)“不是行为人故意的;不为一套规则或外部观察者所期望;或者导致任务或系统超出其可接受范围”2。人为错误可能导致系统故障,并可能由许多原因引起,例如忘记执行清单上的一个步骤。人为错误也可能是特定行为没有得到满足的结果(如在疲劳或受伤的情况下驾驶),或是由于监管不足(例如,允许没有执照、没有经验的司机开车),以及一些组织机构的影响(例如各州或国与国之间道路规则的差异)。
故障可以是显式的,也可以是潜在的。具体的不安全行为或遗漏行为直接导致的错误称为显式故障。然而,潜在的故障——包括那些源于组织结构、缺乏监督或忽视先决条件的故障——往往更加隐蔽。它们可能会隐藏数天、数周或数月,直到导致事故发生。假设你上晚班,疲惫地连夜开车回家,对此该怎么办呢?每天晚上你都安全到家,直到一个不幸的晚上,你闯红灯时没有注意到路上的自行车。因为潜在的错误是我们不注意的事情,所以从定义上看,它们几乎比显式故障更难识别,解决它们可能需要超越技术设计的大量努力。
如何支撑我们的机器人伙伴,知道它们何时何地需要帮助?作为出发点,我们可以看看设计师如何防止工业系统中由于人为错误而导致的故障。工业系统中的关键思想是跨层的健壮性:工业设计师认识到任何一层的监管可能都包含不可预见的弱点,因此他们设计了具有多层防御保护的系统。工业系统设计师使用事故因果关系的“瑞士奶酪模型”将事故的出现描述为跨多个防御层的故障3。每一层都有缺陷或漏洞,如果接连发生,就会在整个系统中造成漏洞。堵塞漏洞以避免特定的不安全行为是防止人类引入不可避免的错误的一种策略。然而,即使投入数十亿美元用于开发一种新型商业客机,也很难预测每个漏洞并将其完全修复。对于工作机器人来说,仅靠这种方法取得的成功将非常有限,因为不可能根除所有可能的差错。在系统中设计的保护层越多,系统就会越有效,因为有了这些保护层,就减少了出现漏洞的机会。无论是机器人还是人类都不能完全无误,但我们相信人类和机器的合作是不会出错的,或者至少像人们所希望的那样,近乎没有错误,特别是机器人和人类可能会有不同的避免出错的方式,从而弥补彼此的缺点。这种方法的结果再次体现在航空领域。考虑到每天的航班数量,人机协作带来了难以想象的良好安全记录。如果人类与机器人的合作能够在更现实的应用中取得这样的成果,我们将会看到街道和人行道的安全得到令人惊喜的改善。
这种瑞士奶酪模型可用于工作机器人的设计(图6)。该模型的基础是人机协作关系,但是协作关系是什么样的呢?在任何良好的协作关系中,每一方都会照顾对方,当其中一方需要帮助时,他们能够也愿意帮忙。为了做好干预的准备,团队成员必须了解合作伙伴试图做什么,以及可能会如何出错。在人类团队中,能够理解伙伴的想法和能力的人才能够更好地预测他们的反应,然后更好地与他们沟通,或采取行动引导他们,帮助他们避免错误。同样,我们的新型工作机器人需要了解人类伙伴的潜在弱点,并且必须能够弥补这些弱点。用户还必须在一定程度上了解机器人试图做什么,并能够识别可能使机器人感到困惑的实时情况。如果用户是专家,并接受了数千小时的培训,这就很容易做到。在这种情况下,用户可以详细了解系统如何工作,并开发出丰富的心理模型。即便如此,任务也可能非常艰巨。当工作机器人开始出现在消费者的生活中时,日常消费者接受培训的时间会大大减少,因此他们对这些系统、操作和弱点的了解也会更浅。
图6 环境如何在防止错误的保护层中造成漏洞,从而导致错误发生。来源:Adapted from James Reason,“The Contribution of Latent Human Failures to the Breakdown of Complex Systems,”Philosophical Transactions of the Royal Society B 327(1990):475–484
例如,行人不可能理解人行道送货机器人的传感器如何扫描环境以创建三维纹理世界地图的技术细节,也就是三维点云。行人也不知道机器人如何通过处理点云来了解周围的物体并选择其行走路径。我们需要一种新的设计方法来训练机器人理解它的伙伴——在这种情况下就是街道上的行人——因为那些伙伴并没有经过专门的训练。
好消息是,对机器人系统有浅显的了解可能并不像看起来那么困难。我们通常认为,为了帮助学生学习,老师需要评估学生已经知道的东西。如果学生已经犯了错误,是什么误解导致他犯这个错误?只有通过诊断错误观念,我们才能从根本上解决问题。更好的方法是提前识别这些错误观念,从而避免错误的发生。教育家称这个问题背后的理论为“诊断补救假说”。尽管这一研究领域可能适用于当前的问题,但诊断补救似乎是一个不可能实现的人类与机器人合作的梦想。
考虑人类进行教学辅导和指导的过程,我们所学到的一系列课程似乎违反以上直觉。例如,有证据表明,教师并不总是采用诊断补救措施,即使相关信息已明确地呈现给他们,他们也很少利用学生产生的误解4。一项研究表明,试图明确地纠正学生的错误观念也不能帮助他们更有效地学习——至少在学习代数方面是这样5。一个原因是误解并不总是导致系统错误,因此修正误解并不总是对性能有预期的影响。
这个领域的研究给了我们希望,机器人不需要了解用户的思维过程和偏见以达到寻求帮助的效果。相反,在涉及人类干预的情况下,机器人只需要确定它需要伙伴做什么来克服这个问题。为了解决手头的问题,一个能有效地影响机器人伙伴的通用模型足以指导用户做出正确的决策或行动6。
此外,工作机器人和它们的用户将不会在高度结构化的、拥有强大监督系统的组织中运行,比如航空公司。机器人系统设计者将不得不考虑到这一事实,因为他们要考虑如何避免瑞士奶酪式的漏洞。对于消费产品,社会环境——如监管环境、文化规范和基础设施——将影响人们对机器人的态度、改善系统性能的环境支持(或阻力),以及关于潜在错误和保护性防御的额外机会。例如,人行道和车道的设计可以帮助机器人,也可以让它们的工作更加困难。斑驳或缺失的车道线会让自动驾驶汽车难以始终沿着道路行驶。若一个施工区域摆着分散的交通锥,且周围没有清晰的道路,在这样的环境下机器人是很难理解和导航的。
文化规范是影响人类与机器人合作的另一个因素。就像这些规范会影响人类之间的关系一样,它们也会影响人类和机器人助手之间的关系。例如,在航空领域,人们发现文化规范会影响飞行员、其他机组人员之间的互动,以及驾驶舱自动化功能。这些规范反过来又受到其他因素的影响,包括个人的民族文化、飞行员和机组人员所属群体的专业文化,以及航空公司的特定组织文化7。不同的文化往往对权力差距有不同的态度,这取决于他们是更个人主义还是更集体主义。这些差异影响了人们合作的方式,以及在关键时刻有效合作的文化障碍。在高权力差距文化中,团队领导者(飞行员)和团队成员(副驾驶和机组人员)之间的关系是不平等的,即对领导者(飞行员)更尊重。这表现在团队成员不愿意质疑或挑战领导者的决定,以及领导者不愿意听取下属的意见。在权力差距较低的文化中,所有机组人员都被要求参与解决问题,并统一自愿提供相关信息,而不关心各自的权力状态。若团队中地位较低的成员对他们的领导隐瞒关键信息——因为这与他们认为上级希望听到的内容相冲突,或者他们确实提供了关键信息但被忽略时,高权力差异就会导致事故8。
文化规范对人与机器人互动的影响也与之类似。例如,在人与人之间的互动中,非语言行为因文化而异。当人们相互交流时,他们之间保持多少个人空间的规范被称为空间邻接学。康奈尔大学的研究人员发现,空间邻接学行为中的文化差异已延伸到人机交互中:在人们喜欢与人交谈时离得近一些的文化中,他们也会期待与机器人的亲密接触;在人们对谈话中的个人空间被侵犯很敏感的文化中,他们会希望机器人也能尊重彼此的个人空间9。这个简单的例子只是文化影响机器人和依赖它们的人类之间的关系的一种方式。
让事情变得更加复杂的是,机器人将越来越多地与不可预测的旁观者进行互动,他们之间的交流和影响彼此行为的方式将是有限的。可能出现的广泛且不可预测的情况会导致潜在的错误浮出水面。
虽然在某些方面,由于这些先决条件和社会影响,填补瑞士奶酪的漏洞可能会更加困难,但人类与机器人的合作确实为设计师提供了弥补重叠盲点的机会。也许最重要的是,机器人和人类都将能够识别并克服对方的潜在错误。因此,图7将人与机器人的合作关系显示为环环相扣的圆圈,每个圆圈都有重叠的保护和暴露区域。合作伙伴的设计越强,暴露的区域就会越小。
图7 用于商业应用的工作机器人的瑞士奶酪模型
在这个模型中,机器人不仅有助于防止人为错误,而且人类用户在改善机器人的错误方面也扮演着重要的角色。一个人要想成为机器的好伙伴,就必须能够预测系统不知道或无法响应的故障。然而,一个盲目依赖人类“安全网”来捕捉和修复错误的系统注定会失败。
例如,美国汽车工程师学会(一个管理工程标准的专业协会)定义了自动驾驶的六个级别,在其中三个级别上,驾驶员不再控制驾驶功能。但对于第3级,当自动驾驶功能请求帮助时,人类驾驶员仍有望控制车辆。在第4级和第5级,自动化不需要驱动程序进行控制;相反,自动化的设计者应该负责确定故障检测和恢复方法,而不是依赖于驱动程序监控10。
第3级自动化具有很大的挑战性,因为自动化取代了大部分传统的人类驾驶员的角色,但要成为有效的合作伙伴,驾驶员需要知道自动驾驶模式可能在何时以及如何失效,以便在需要时做好准备。例如,当汽车遇到意想不到的障碍时,比如道路施工或绕道,它可能需要人工干预。理想的情况是,驾驶员意识到了这种可能性,并时刻保持警惕,这样当这种情况出现时,他就能立即应对。第4级或第5级自动化的全自动汽车需要另一层保护。自动驾驶汽车的软件必须能够检测超出其能力范围的情况。当这些情况发生时,机器人必须将自己置于故障安全状态,例如在接近一组分散的交通锥时停下来。也许除了乘客之外,还有一名人类监管者,但他们处于一种类似“指挥中心”的状态,只有当自动驾驶汽车检测到自己无法处理的情况时,才会请求他们的帮助。这仍然是人与机器人的伙伴关系,但机器人有更多的责任去提示监管者帮助它。
我们可以设计这种伙伴关系,就像我们把运动员聚集在一起组成高水平的运动队一样。现代运动队成功的一个关键因素是关注伙伴如何互补彼此的技能和专业知识。在《点球成金》(Moneyball)一书中,描写了使用数据分析和统计分析来减少棒球运动中的猜测过程。在棒球比赛中,这种统计分析被称为赛伯计量学,这是由美国棒球研究协会的首字母缩写演变而来的术语。我们可以对人类和机器人团队做同样的事情。例如,我们可以开发指标来分析人类的能力和错误以及机器的性能,因为它们与人机关系有关。作为对概念的证明,我们在麻省理工学院的实验室开发了一种机器学习模型,让机器人观察一个人错误地执行一项任务,然后猜测这个人没有看到或没有注意到什么问题;它还试图确定人类错误行为的哪些方面可能是由于没有充分了解情况导致的,而哪些方面可能是人类尽管理解了问题,但在采取适当行动决策时却犯了错误11。例如,因为两个药瓶之间类似的标签,或者因为员工没有接受过关于药物使用的培训,导致医疗工作者拿错了药瓶,给病人用错了药。一个能够模拟我们的盲点——瑞士奶酪模型中人类的漏洞——的机器人可以更好地捕捉这些错误并帮助我们。
此外,我们还知道,一个由专家组成团队并不一定就是一个专业的团队12。人们在伙伴关系中学习如何工作,不仅受益于他们渊博的知识,还受益于在一起工作时的经验和实践。我们使用一些关于伙伴(他们的技能集、之前的工作经验)和手头的任务(技能或程序)的先验知识,但是最终,我们需要练习与团队成员一起工作,以“达到最佳状态”。我们彼此熟悉,学习彼此的习惯,一起修补“漏洞”,从而预测和避免失误,并学习信任彼此。
你认为以下哪支棒球队可能表现得更好?一支是全明星的“梦之队”,但队员们第一次一起打球。另一支是普通的球队,整个赛季都在一起训练,但现在,比赛当天,他们的位置被打乱了——游击手必须投球,一垒手要打外场,等等。你可能会猜梦之队,但你可能错了。
人为因素专家Nancy Cooke和运动心理学家Rob Gray联手进行了这项研究13。他们组建了三支棒球队:一支是每个队员在他熟悉的位置上比赛;一支是球员交换位置;还有一支全明星队,由不同球队中每个位置上的表现最好的人组成,这是他们第一次在一支球队中打球。研究人员记录了参加比赛的球队,然后测试每支球队的表现。他们向每位队员展示比赛关键时刻的视频片段,比如一次击球后的瞬间,然后暂停视频,让他们预测下一步队员们会做什么。正确处理这一问题的能力是衡量球队凝聚力的一个标准。在熟悉的位置上一起练习和一起比赛的球队在这项任务中表现最好。但有意思的是,“梦之队”的表现与打乱球员位置的球队相比惨不忍睹。对球队的熟悉度和合适的合作模式比任何球员在单一位置上的技能都重要。
学习如何与他人合作有助于团队更好地解决问题,在一起工作的舒适感使他们更灵活和敏捷地共同应对出现的情况。心理学家花了几十年的研究来理解和设计团队训练程序,以优化团队应对不可预见事件的能力14。他们发现,那些把练习时间花在对许多不同类型错误做出应对——这个过程被称为扰动训练——的团队,在对他们还没有见过的新错误做出反应方面做得更好。换句话说,在正确判断错误情况后,团队将学习节奏和策略,以有效地应对任何新的错误情况。这类似于棒球队一起训练,然后完全改变角色。他们能够适应新的情况。
我们才刚刚开始了解如何设计机器人伙伴,模仿人类团队的特殊能力,以应对不可预见的情况。在麻省理工学院的实验室里,我们设计了新的方法,让人类和机器人通过扰动训练一起学习15。当人和机器人一起练习不同的任务时,机器人使用一种机器学习算法进行学习,这种算法是由人类认知模型启发的。它学会了从经验中吸取教训,并以类似于人们从以往经验中学习的方式改进团队合作策略。在我们的实验室研究中,我们为由人和机器人组成的团队提供了一些难题,例如,他们可能需要协作分配消防资源来扑灭多风环境下城市街区的一系列火灾。我们发现机器人伙伴在使用人类启发的学习技术的情况下,实际上学习了与人类伙伴学习的策略相一致的团队合作策略,并且人机扰动训练相比其他方法可以达到更高水平的团队表现。
这是一个令人鼓舞的迹象,我们可以开发机器人伙伴,学习与人一起在专业环境下工作,人们愿意并能够投入大量时间用于模拟器培训。但是,一个刚刚订购了将由送货无人机送货上门的包裹的人,不会是一名训练有素的飞行员,也不会花时间学习无人机的工作原理和可能发生故障的时间。因此,我们需要其他工具和方法来设计与工作机器人更完美的合作关系,让它们与日常用户互动。
学习任何技术——即使是非常简单的系统和界面,如电视遥控器——都需要练习。大多数时候,我们都是通过试错来理解设备的工作原理。“易学性”的设计过程模拟了人性的这一方面。我们的目标不是设计一个让用户第一时间就能完成任务的系统,而是确保用户拥有清晰且一致的线索和反馈,这样他们就能更好地记忆下一次与系统交互时应重复的行为。相反,用户界面(User Interface,UI)设计人员将其视为用户将探索该界面的前提,因此要谨慎地将菜单中的关键功能深埋,并进行多次确认,以避免意外激活不可恢复的动作,例如恢复出厂设置。
我们如何帮助用户快速提高对机器人的熟悉程度,以便能够识别和克服机器人的错误或故障?在安全关键型系统中,通过试验和错误来学习可能是危险的,而且会耗费大量时间。那么另一种方法是什么呢?第一步是主动改变有机器人搭档之前的用户任务。篮球运动员在一对一而不是团队比赛时会改变他们的策略。同样,习惯于独自工作的人也需要改变自己的行为方式,才能在与机器人伙伴合作时取得成功。用户任务需要转移,这样他们就可以专注于观察漏洞,而不是直接控制机器人。这项新任务包括监控机器人可能出现故障的情况,这样用户就可以进行干预,帮助机器人成功地绕过漏洞。
因此,系统设计需要关注如何更好地支持用户适应他们的新角色。例如,在驾驶汽车时,传统上你需要不断观察前方的环境,同时接收许多信息,以确保安全驾驶。当汽车开始使用车道跟随技术自动行驶时,应该提示驾驶员将注意力转移到普通的监控任务上,例如,车道线可能被遮挡,在施工区或意想不到的车道上发生转变。可以在挡风玻璃上或车内显示器上提供数据可视化,以突出对车道线的解释,进一步帮助司机监控汽车感知和理解车道线的能力。但这只是一个假设,只有当开发人员发现,让自动驾驶汽车上的乘客去注意车道线的变化是有意义的,这个假设才成立。我们的工作机器人设计者要找出用户的关键任务是什么,然后决定如何在这些新任务中支持他们。随着机器人变得越来越复杂,功能越来越强大,这种责任变得更加重要。
一旦这些新任务被识别出来,它们就可以在机器人的设计中发挥作用,对人机互动中的人类行为产生积极影响。例如,数据可视化的方式影响着人们如何理解信息并基于信息做出决定。经过验证的数据可视化技术可以帮助用户看到机器人的漏洞,并弄清楚如何在机器人周围移动或修补机器人漏洞。例如,柱状图支持离散数据点之间的比较,而线形图支持趋势信息分析16。信息如何呈现将从根本上决定用户如何看待需要做什么的问题。
为了理解这个概念如何在复杂和动态的环境中发挥作用,我们再次转向航空领域。飞行管理系统支持飞行员的工作和决策,从航线规划到执行紧急检查表。研究发现,飞行管理系统向飞行员传达信息的方式会影响飞行员的决策。这项研究表明,信息表征可能会影响人类的行为和决策,同时也会影响其他复杂的动态系统17。换句话说,如果它适用于飞行员,那么它也应该适用于驾驶自动驾驶汽车的司机。
为这个目的而开发的一种具体设计方法被称为生态界面设计(Ecological Interface Design,EID)18。生态界面设计用于工业应用,如核电站控制板、医疗设备和驾驶舱。它将设计工作的重点从简单的降低用户界面的复杂性转变为关注揭示系统的真实约束,以支持用户构建正确的活动心理模型。因此,它允许从一个被动的监控者(我们知道人们在这方面总是很糟糕)转变为一个积极的问题解决者。这种方法的关键是通过用户界面直观地显示环境的约束和复杂性,这允许用户更直接地识别失败并适应这些失败。
举一个简单的例子来说明生态显示的强大功能,请考虑导航系统。在汽车或手机上有导航系统之前,许多人在去陌生的地方旅行之前会在互联网上查找方向,要么打印出所有路线的列表,要么打印出绘有路线的地图。当事情按预期进行时,这种导航地图比较好用,我们中的许多人都是跟着这份列表上路的。有了地图,你必须不断地调整自己的方向,把它举得离自己很近,以便看清下一条街道,等等。然而,一旦发生了一些意想不到的事情,这种导航地图就变得毫无用处了。假设路线上正在施工,你就不得不绕道而行。没有地图,你将不知道如何回到列表中给出的街道,或者即使知道,但也不确定在哪一个路口转弯。
然而,绘有路线的地图在正常情况下很难使用,因为你必须仔细检查路线,弄清楚它与你当前的位置和你正在行驶的方向有什么关系,你必须把它放在手边,以便从意外情况中恢复路线。在设计机器人时,我们将不得不做出一些权衡与取舍,不仅能让用户为机器人伙伴建立一个适当的主动心理模型,而且能让用户适应意外故障或突然出现机器人无法预测的场景。我们需要用户界面,确定机器人模型的约束条件和复杂性,这对用户来说是直观的。对于机器人,可能需要显示机器人所看到的东西。当机器人丢失了可能导致错误的关键信息时,用户可以很容易地看到并检测到,而不是简单地告诉用户什么时候需要他们,什么时候需要自治系统接管。当机器人无法正确理解共享环境时,用户应该能够看到。
许多研究评估了工业应用中以生态为导向的替代方法,这些研究一致表明,用户用生态界面比用其他类型的界面时诊断问题更快、更准确。处理生态界面时,操作人员往往更灵活,对所使用的系统也有更好的了解19。
在生态界面设计中,人们认为机器人伙伴是智能的,但方式与我们不同。重要的是让用户感知到以下内容:
·机器人的目标和意图,以及它们与环境的关系。
·对机器人决策和行动的限制。
·机器人与环境相关的性能指标。
有了这种类型的设计,用户更有可能在需要时介入并提供帮助,而不是一直等待请求。用户更有可能识别出机器人的目标、意图或行动是错误的,并迅速处理这些错误。生态界面设计帮助用户在正常情况下建立机器人决策能力的准确心理模型,对他们进行有效的培训,让他们了解系统在发生故障时是如何工作的。在正常情况下,以生态为重点的显示是不必要的,而生态界面设计在这些时候可能会让人感觉有些过度。但未知的错误将不可避免地浮出水面,当机器人故障导致的问题需要人类操作人员来发现和解决时,生态界面设计将成为关键。
到目前为止,在我们的讨论中,防范错误意味着帮助人们观察特定的指标,并预测机器人可能在何时何地犯错。但是,在一开始就尽可能地找出预防错误的方法是值得的。当然,预防似乎比错误发生后修复更可取。
人类比机器人更善于阅读信号,理解环境或情况的变化对他们的影响。事实上,机器人往往根本无法理解其中的一些因素。例如,施工标志可能会引入新的公路交通规则,比如降低速度限制,或者可能会有机器人不知道的路障。人类有很强的能力去接受这些信息——即使线索很少,然后快速理解并做出反应,而机器人必须得到详细、明确的信息和程序。
例如,单词中字母的排列顺序无关紧要。唯一重要的是第一个和最后一个字母在正确的位置。剩下的可能排序杂乱,但你仍然可以毫无问题地阅读。(For emaxlpe,it deson’t mttaer in waht oredr the ltteers in a wrod aepapr.The olny iprmoatnt tihng is taht the frist and lsat ltteers are in the rghit pcales.The rset can be a toatl mses,and you can sitll raed it wouthit a pobelrm.)你能轻松理解这三句话,这证明我们人类在信息稀少的情况下有能力填补空白。我们能够识别模式并利用上下文来理解文章。神经科学家已经发现,我们使用上下文来预激活大脑中与下一步预期相对应的区域。今天的机器不具备这种基于一般上下文识别和连接模式的能力。机器需要尝试对每个单词进行拼写纠正,即使只有一两个词没有改正,机器也会得出完全错误的结论,或者根本就不会得出结论。
人类可以帮助机器人面对这种意外和稀疏的信息:改变规则的信息,忽略机器人需要的重要细节的信息,或者可能在其他方面被误解而导致错误的信息。如果用户可以查看这些情况,并积极解决问题,他们就能与机器人沟通,纠正其决策和程序。这可能意味着用户将与机器人分享新的规则,或者告知它环境的变化。例如在施工区域减速,路面有一个坑,或某人需要更长的时间过马路。这类障碍对人类来说很容易发现,但对机器人来说却很难。人们立即明白如何调整自己的行为来适应这种情况,但机器人需要有专门的规则来应对这种情况。就像人们通过在Waze等应用程序上分享信息来帮助他人一样,我们可以设想机器人监管者、旁观者甚至其他机器人通过众包信息来支持正在工作的机器人,帮助它们找到最佳路线。
人与机器人的合作是力量无穷的,因为机器人有用户不具备的力量,反之亦然。机器人知道世界上的一些事情,但不知道人类所做的一切。例如,机器人经常很难学会社交互动的细微差别——微妙的身体语言,比如歪着头可能表明一个人感到无聊或困惑。同样,人类知道世界上的许多事情,但不知道机器人所做的一切。在手术室里帮助外科医生的机器人从不眨眼,从不疲劳,准确地知道伤口有多长,并且不会在手术现场弄丢手术器械。
我们如何利用机器人的相对优势和交互功能来弥补人类的弱点呢?
首先,在了解了人类潜在的弱点和盲点(例如,在瑞士奶酪的人类切片上的漏洞)之后,我们可以设计机器人的任务和能力(例如传感器、行为智能),以确保它的弱点和盲点(它的漏洞)不与人类的重叠。根据一项研究,护士和外科医生会在12.5%的手术中误算手术器械和海绵的数量,这导致了一些危险的错误,比如将手术用品落在手术患者体内21。有了相关知识,外科手术机器和机器人就可以安装特殊的传感器来帮助医生追踪手术用品。
一些重叠的漏洞仍然会存在。但是,如果我们能给机器人设置一个动态模型,告诉它人类的弱点与它要完成的任务有关,那么机器人就可以使用这个模型来积极地预测什么时候某个行为可能会与人类的漏洞重叠。机器人有可能在错误发生之前捕捉到错误,并据此引导人类的注意或行为(即临时“修补漏洞”)。这就像我们在一个有很多孩子的社区里放一面镜子,帮助人们看到周围的盲区,或者放一个路标,上面写着“慢点,孩子们在玩”。这些都在提示司机调整他们的行为,是在存在潜在麻烦情况下提醒人们谨慎驾驶的辅助工具。在与机器人互动时,我们也可以这样做。虽然每个人的弱点不尽相同,但我们也展示了人类意识和决策方面的一些共同差距,设计师可以使用这些模式来指出用户可能在哪里以及如何出现问题。通过产品设计过程中的实验,我们可以锁定机器人需要引导用户远离“漏洞”的其他区域。或者,机器人可以识别出人类的动作是在什么地方掉进漏洞里的,以便自己采取行动减轻后果,或者提醒人类注意这个问题。
也许最重要的是,机器人可以通过管理用户的注意力来防止或克服人为错误。人类会有系统性的偏见,当他们把注意力集中在错误的细节上时,重要的信息就会被忽略22。设计机器人可以帮助监管者克服这些人类普遍存在的局限性。
例如,在压力下,用户的关注点会缩小。这被称为聚焦注意力,虽然这能让我们专注于给定的任务,但也经常会导致我们错过外围的信息。机器人可能会检测到这些压力时间,并尝试重定向用户的注意力,或者自动接管监管者由于忙于多任务处理而无法执行的任务。
此外,当人们被引导做出适当的反应时,他们在面对不可预见的事件时往往表现最好。当向他们提供了太多关于某一情况的信息时,情况就会变得混乱。事实上,有时人们对一个系统的工作原理了解得越多,就越难发现如何干预以避免错误。这有点违背直觉,但有时候过多的信息是有害的,会让人分心。在可能的情况下,机器人可以帮助引导用户采取解决故障所需的步骤。
在20世纪80年代,研究人员进行了一项研究,旨在训练人们操作一个简单的控制面板,该面板由一些按钮、开关和指示灯组成23。参与者被告知了一个关于控制面板的用途的故事——它是企业号星舰上“泰瑟银行”的控制面板。这项研究的目的是了解人们需要知道什么样的信息才能正确地操作一个复杂的系统。例如,他们真的需要了解系统的功能吗?或者仅仅训练人们按正确的按钮并记住开关顺序就足够了吗?如果给人们更多关于系统如何操作的背景信息,包括按钮和开关的用途,这是否会有帮助?这些关于泰瑟银行的额外信息能帮助他们更好地理解自己的任务吗?
在一系列实验中,参与者要么通过死记硬背不停练习操作步骤,要么接受关于不同版本的系统工作原理的指导。研究人员发现,并不是所有关于系统如何工作的信息对人们都一样有用。这些信息只有在支持用户推断他们需要采取的确切和特定的控制动作时才有用。人们在上述情况下学习得最好,这支持了试错法是学习系统的最佳方式的概念。如果我们只是不断告知用户如何使用设备,但是用户实际上并没有学会——他可能错误地解释模型,或者在必要的控制动作上得出不正确的推论,这样就无法实现设备的最佳性能。我们需要机器人来引导人们获取他们所需要的信息,以便在特定的情况下决定如何应对。机器人可能不知道需要采取什么行动,但仍然知道必须采取某种行动。或者机器人可能知道发生了一个错误,它把监管者的注意力引导到显示器的特定部分,或者引导用户通过特定的像清单一样的操作序列来解决问题。
在下一章中,我们将尝试理解这种方法。有效的团队合作的核心是了解队友的优缺点——但不是他们在日常生活中的长处和短处,比如擅长篮球,但不擅长烹饪。我们需要了解伙伴的具体优势和弱点,因为他们将与我们一起完成手头的特定任务。事实证明,在使用自动化时,我们知道很多关于人类自己的优势和劣势,这些知识将帮助我们设计与工作机器人的新伙伴关系。