吉宁讲师观点 / 培训讲师谈管理 / 培训讲师谈管理:如果你的老板是机器人……

培训讲师谈管理:如果你的老板是机器人……

吉宁博士 2015年12月12日 培训讲师谈管理

在2013年的一次机器人大会上,麻省理工学院的研究员凯特·达令(Kate Darling)做了一个小测试,她邀请与会者和体形与吉娃娃相当的电子恐龙玩偶一起玩耍。这些玩偶名为帕雷欧(Pleo),但与它们互动的人可以为自己的机器恐龙另外取名。这些人很快发现帕雷欧可以和他们沟通:小恐龙们通过姿势和面部表情清楚地表示它们喜欢被轻抚,不喜欢被拎着尾巴拽起来。一小时后,达令让大家休息一下;等游戏再开始时,达令拿出小刀和斧头,让参与者折磨、肢解他们的小恐龙。

达令预计自己会遭到一些抵制,所以她早有准备,但当所有参与者一致拒绝伤害自己的机器恐龙时,她感到颇为惊讶。有些参与者为防止帕雷欧被人伤害,甚至用身体挡住它们。“我们回应这些仿生机器恐龙发出的社交信息,”她在2013年的演讲中总结道,“即使我们知道它们不是真的生命。”

这一洞见将引领下一波自动化风潮。埃里克·布林约尔松(Erik Brynjolfsson)和安德鲁·麦卡菲(AndrewMcAfee)在合著的《第二个机器时代》(TheSecond Machine Age)一书中提到,从在生产车间迅速学会新技能的自主机器人到能评估求职者或推荐企业战略的软件,这些“会思考的机器”正在进入工作场所,而且为企业和社会创造巨大价值。(对布林约尔松和麦卡菲的采访请见本期第82页。)然而,尽管技术瓶颈正被一一攻破,但社会制约因素还在。你如何劝说你的团队信任人工智能,或让他们将机器人视为自己团队中的一员,甚至领导,并接纳它们?如果你换掉那个机器人,员工的士气会低落吗?

回答这个问题之前,我们要先了解人类如何和会思考的机器协同工作,并与之相处。相关研究越来越多,我们不断扩充知识,获得重要洞见,最终了解到人与机器如何协作完成工作。当这些机器从工具转变成我们的队友时,有一点越来越明确:接纳机器人意味着我们不能仅仅把它们当成一种新的技术应用。

信任还是不信任算法,要看时机

与会思考的机器协同工作时,我们遇到的第一个挑战就是承认机器知道的比我们多。请参考2014年的一项研究:沃顿商学院的研究者进行了一系列实验;受试者既可以运用某个算法,也可以根据自己的判断做预测,而预测较准的受试者会得到奖金。以其中一个实验为例,受试者收到一组已毕业的MBA学生的入学数据,他们要根据这些数据预测每一个学生在读期间的表现。多数人倾向凭直觉预测,而非运用某个算法。

这一现象被称作“回避算法”(algorithmavoidance),在多个研究中都有记录。人们在诊断疾病或预测政治结果时都选择摒弃算法,而是相信自己或他人的判断,但结果往往是这种人类凭直觉做出的决定更糟糕。因此,管理者应得到启示:帮助人们信任会思考的机器很有必要。

但仅仅告诉人们算法有多精准并不能说服他们信任算法。当沃顿的研究者让受试者分别查看自己的预测结果、算法所得结果和正确答案时,受试者发现算法通常更准确。但他们看到结果的同时也发现了算法的错误,对算法的信任度就随之降低。研究者伯克利·戴特沃斯特(Berkeley Dietvorst)说:“人们看到算法的错误后就对它失去信心了。” 他还解释说,虽然人类犯错的次数比算法多,“但人们并没有对自己失去信心。”换句话说,我们会因算法出错而对其抱有偏见,但对犯错的人类则更包容。戴特沃斯特认为,这是因为我们相信人类的判断力会提升,却错误地以为算法无法演进。

我们在做比数字计算更复杂或感性的工作时,回避算法的倾向更明显。西北大学凯洛格商学院和哈佛商学院的研究者交给众包网站土耳其机器人(Mechanical Turk)的工作人员多种任务;有的人被告知任务要求员工有“认知力”和“分析推理能力”,有的人则被告知任务要求是有“感情”,并能够“处理情感”。接下来,他们问受试者是否放心将这类工作外包给机器。这个建议让那些被告知接到偏感性任务的受试者不安,而被告知接到分析类任务的受试者的反应则没那么强烈。哈佛商学院的麦克·诺顿(Michael Norton),同时也是发表这个研究的作者之一总结说:“思考近乎于做数学题。机器人可以做数学题。但它们不可以感受事物,因为那样它们就太像人类了。”

诺顿认为,只要把任务描述成分析类的工作,就有助于消除人们对算法的疑虑。在另一实验中,他和凯洛格商学院的亚当·韦兹(Adam Waytz)一起发现,如果受试者得知数学老师教学生各种各样的公式和运算法则时,要用到很多分析技能,他们会比较容易接受机器人可以当数学教师的观点。但如果受试者被告知这份工作需要“与年轻人相处的能力”,他们就不太会赞同让机器人任数学老师一职。

戴特沃斯特和沃顿的同事另辟蹊径。如果人们更信任自己的判断,而非算法,那为何不将前者融入后者呢?于是他们在一次实验中允许受试者稍稍调整算法的结果。他们要求受试者根据多个数据点预测某高中生的一次标准化数学测验成绩,但没有强迫受试者在自己的判断和算法中选其一,所以受试者可以将算法得出的成绩调高或调低几个百分点,之后将结果作为最终预测成绩上交。研究者发现,得到选择权的受试者更倾向信任算法。戴特沃斯特认为,这是因为他们不再感到自己正在放弃控制预测的权力。

我们更信任外形酷似我们的机器人

另一个鼓励人们信任会思考的机器的办法是:让机器人更像人类。研究表明,人们更易接纳有声音或有明显可辨的人类体形的机器或算法。西北大学、康涅狄格大学和芝加哥大学的研究者借助自动驾驶汽车检验了这一论点。在他们的实验中,受试者要使用一个模拟驾驶装置。他们既可以手动控制转向,也可以启动自动驾驶功能。在有些情况下,自动驾驶功能完全控制模拟驾驶车辆的转向和速度。换句话说,它被赋予了人类的特质,并获得了一个名字——艾丽斯。它有女性的声音,并在驾驶过程中与驾驶者对话。驾驶装有艾丽斯的车的受试者更可能启动自动驾驶功能。研究员还设计了一场模拟车祸,出错一方是其他车辆,并非自动驾驶功能。驾驶由艾丽斯掌控的汽车的受试者面对车祸比驾驶没有名字或声音的汽车的受试者表现得更放松,也不太可能埋怨自动驾驶功能。

研究者称,人类有拟人观倾向,即将人类的特征、动力,比如思考、感觉或表达意图的能力套用到非人类的生物或物体上,因此艾丽斯得到了更多信任。长期以来,多个研究都证明赋予机器以声音、形体,甚至名字顺应了这一倾向,让人们更容易与机器协同工作。举例来说,我们与和自己有“眼神交流”的机器人合作更有效,而且我们觉得这些机器人,比如帕雷奥歪着脑袋的时候更可爱,而且像人类。

卡内基梅隆大学的研究者通过一个4.5英尺高的自主机器人,进一步探讨了这一观点。这个机器人名为“零食机”(Snackbot),有轮子、胳膊、男性声音。它的嘴以LED显示,能笑,也能皱眉。零食机的工作是在办公室内分发零食,但它的设计明显是为了激发拟人观反应。正如研究者预测的那样,办公室的人和零食机交谈,并友善地对待它。某受试者被问到与零食机的交流情况时说:“虽然零食机没有感情,但我不想拿走零食后就当着它的面把门关上。

零食机被设定与某些人进行“私人”对话,比如谈谈他们最喜欢的零食。受到这种待遇的员工对零食机的服务更满意,而且更愿意答应零食机提出的请求,比如告诉零食机它接下来的行程还应涵盖办公室的哪些地方。

但机器人有时过于像人类

赋予会思考的机器以人类特征的挑战之一是我们可能被误导,过于信任它们的能力。曼尼托巴大学的研究者进行了一系列实验:受试者要做一项枯燥的重复性工作,即为计算机文件重命名。受试者早已知道实验的时长,因为研究者称他们可以在任何时间离开。但要被重命名的文件数量没有上限,因此受试者必然会在某个时间选择退出,而那时一个两英尺高、名为吉姆的仿人机器人会劝告他们继续重命名的工作。吉姆坐在书桌上,声音机械而呆板。它好奇地环视整个房间,并做出各种手势。这些设计是为了体现机器人的智能,但受试者并不知道吉姆实际上由研究者控制,而且不能自主行动。吉姆在受试者想要停止工作时会说类似“请继续——我们需要更多数据”,或者“坚持下去很重要”的话。这种情况会持续下去,直到受试者不再听从吉姆的劝告,放弃工作或者继续坚持80分钟。让本研究作者之一詹姆斯·扬(JamesYoung)最为惊讶的是,很多人“把机器人当成可以与之协商的人”。他们与机器人辩论,称它让他们继续工作是不合理的,虽然机器人只是重复回应几个相同的词汇,其他什么都没做。一些受试者似乎以为,机器人具备声音和人类体形的事实足够说明它们有能力进行理性分析。

另一问题是随着机器越来越酷似人类,我们可能会像对其他人一样,对它们产生刻板印象,甚至歧视它们。韩国崇实大学的研究者做了一项实验:他们评测了受试者对识别监控录像中可疑行为的机器人保安的满意度。机器人名为约翰,拥有男性声音时得到的认可度比名为琼、拥有女性声音时要高,虽然约翰和琼所做工作相同。针对在室内作业的机器人的研究发现,情况完全相反。

最后,仿人机器人可能在工作场合引发人际矛盾。在零食机的实验中,有受试者称,当机器人在其他同事能听到的范围内,评价他有多喜欢订锐滋牛油花生巧克力杯时,他感到很尴尬。另一受试者表示,他在听到零食机称赞一个同事总在办公室内,因此这位同事是个勤奋的员工后,心生嫉妒。“你给机器人添加越多人类的特征,尤其是像情感这样的特征,它激发的社交冲突就越大,”南加州大学教授约翰森·格拉齐(Jonathan Gratch)说,“你并不总希望你的虚拟机器人队友像人一样。你希望它比人更好。”

格拉齐在自己的研究中探究了会思考的机器如何做到两全其美,即获得人类信任的同时,避免拟人观陷阱。在其中一个研究中,他让受试者分成两组与电视屏幕上的数字化卡通人物(被称为“虚拟人”)讨论自己的健康状况。他告诉一组受试者卡通人物由人类控制,告诉另一组受试者卡通人物是全自动化的虚拟人物。后一组的受试者更愿意透露较多健康信息,甚至表现得更悲伤。“当他们和人交谈时,他们担心得到负面评价,”格拉齐说。

格拉齐提出了假设,即“在某些情况下,最好不让机器有太多人类特质”。例如,“你可以想像一下,如果你的老板是电脑,你就更可能开诚布公地指出它的缺点。”格拉齐还认为,在有些情况下,人们甚至会认为不太像人类的机器人更公正,且没有偏倚。

何时更喜欢机器人同事

spot-流行文化中的机器人-xiao

我们和会思考的机器的协作方式会因我们所做工作、工作描述方式和机器设计方案的不同而有所变化。但在适当的条件下,人们对机器人同事的包容度出奇地高。朱莉·沙(Julie Shah)和麻省理工学院的同事设计了一个实验:一个受试者、一位助理和一个机器人要合作搭建乐高模型。受试者被告知要把这份工作当成真正的制造业工作,并在紧迫的截止日期前完成它。为团队成员有效分配工作对迅速完成计划至关重要。

受试者在三种不同情况下分别搭建了一个模型。第一种情况是机器人分派任务,即去实验台取乐高组件以及到制定的实验台组装。第二种情况是受试者分派任务。第三种情况是受试者规划自己的工作,而机器人将剩下的任务分派给自己和助理。研究员猜想,受试者最满意第三种情况下的分配,因为他们不仅因机器人的专业排班算法而受益,还获得了自主工作权。但结果是,他们更倾向让机器人分派所有任务。事实上,这也是最有效率的方式:团队在最短的时间内完成了计划。

为什么这些受试者对机器人的认可度比沃顿实验中拒绝依赖算法的受试者高这么多呢?就目前所知,我们还不能下定论。沙指出一个事实:受试者接到的任务很难在规定时间内完成,所以他们认识到自己会因机器人的帮助而受益。此外,改变工作描述方式也极有可能帮助机器人赢得认可,比如规定任务目标为在可控环境下,争分夺秒,最大限度地提高生产力,而机器人可能擅长这种强调理性的工作。最后,尽管这个机器人没有声音,也没有社交功能,但它有人的外形,因此它看上去比没有形体的算法更智能。

沙在实验结束时征集受试者的反馈,他们解释说为何自己更倾向某一种任务安排。比较能说明问题的一点是,倾向让机器人负责分派任务的受试者没有强调机器人酷似人类的特征或他们与之建立起的亲密联系。相反,他们给出的原因包括“我从不会觉得自己在浪费时间”、“这种安排能保证排班不被自负的团队领导左右”等。机器人成为理想队友的原因是它做了机器人最擅长的事。(刘筱薇| 译 安健 | 校 钮键军 | 编辑)

沃尔特·弗里克是《哈佛商业评论》助理编辑。

About 吉宁博士

真正的实战派企业培训师,长期致力于人力资本、公司行为、市场营销、企业战略及领导力发展等组织实践与研究,数十年来参与及主持过的管理咨询项目累计逾千次;受邀主讲过的各类企业培训课程累计逾万次。