第十章 预测之耻(第3 / 7页)
技术之美:Excel表格
我们可以通过实验和重复性检验来确定这种计划错误是不是人类本性的一部分。研究者已经对学生做了测试,学生被要求估计完成研究项目所需的时间。在一次有代表性的测试中,他们把一群人分为两组,乐观的和悲观的。乐观的学生估计26天,悲观的学生估计47天,而实际的平均完成时间是56天。
到目前为止,我们还没有质疑过专业人士的权威,我们只是质疑他们对自己知识的有限性做出评价的能力。认知自大并不排除技能的存在。一个管道修理工几乎总会比顽固的评论员更懂得管道修理。一个疝气外科医生在疝气方面的知识几乎不可能比胃癌知识少。但另一方面,专家对概率却处于无知状态,而且你比专家更了解这一点。不论任何人告诉你任何事,对专家思考过程的错误率提出疑问都是有好处的。不要质疑他的过程,只要质疑他的自信。(作为一个被医生骗过的人,我学会了谨慎,并且我号召所有人谨慎:如果你带着某种病症走进一个医生的办公室,不要听他讲你患的不是癌症的概率。)
乔的例子并不极端。我选它的原因是它涉及的是可重复的、常规性的任务,对这类任务,我们的计划错误会小一些。对于具有较大非常规性的计划,如军事入侵、全面战争或者某件全新的事,计划错误会急剧恶化。实际上,任务越具常规性,你预测得越准确。但在现代环境下,总有非常规的事情。
专家问题,可悲的虚有其表
人们许诺在较短的时间内完成任务是有动机的,例如作者为了赢得出版合同,或者是建筑商为了得到首付款好去度假。但即使不存在低估完成时间(或成本)的动机,人们仍然会犯计划错误。我已经说过,我们的思维太狭隘了,以至于我们无法考虑时间偏离我们预测范围的可能性,而且,我们太过专注于相关任务内部的失误,而不考虑外部不确定性,即“未知的未知”,或者说那些我们没有读过的书的内容。
我们用悉尼歌剧院的故事作为预测讨论的起点。现在我们要讨论人性中的另一个特点:计划者会犯一种系统性错误,它是人性与世界或组织结构复杂性混合作用的结果。为了生存,各种组织需要令自己和别人相信其有“前景”。
心理学家詹姆斯·尚蒂(James Shanteau)研究了哪些学科存在真正的专家、哪些学科没有。请注意这里的证实问题:如果你要证明没有专家,那么你需要找到一个专家无用的领域。你也可以以同样的逻辑证明相反的观点。但有一个问题:有的领域专家是起作用的,有的领域则无法证明存在特定技能。这些各是什么情况呢?
计划失败是因为人们具有筛选性思维,即忽视计划之外的不确定性来源。
有些学科的确存在真正的专家。我们考虑下面这几个问题:你愿意让某报纸的科学记者还是有执照的脑外科医生为你做脑部手术?你愿意听某个“著名”学院(比如沃顿商学院)毕业的金融博士还是某报纸的商业版作家对经济做出预测?虽然第一个问题的答案非常明显,但第二个问题的则不然。我们已经认识了“技术”和“知识”的区别。
下面是一个典型的例子。乔(一名非小说类作家)得到一份出版合同,交稿日期定在从现在开始的两年以后。书的内容很简单:作家沙尔曼·拉什迪(Salman Rushdie)的传记,乔已为此收集了大量信息。他甚至追踪了拉什迪的全部前女友,并预见到会与她们有非常愉快的面谈。离两年期限还有3个月的时候,他打电话向出版商解释,他需要推迟一小段时间。出版商已经料到这种情况,他们对作者推迟交稿已经习以为常。然而,这次出版商却有些犹豫,因为书的内容已经出人意料地失去了公众的兴趣,公司原以为公众对拉什迪的兴趣会保持在很高水平,但它实际上已经逐渐消失了,伊朗人出于某种原因不再对他感兴趣了。
最后还有一个说明问题的实验,心理学家保罗·斯洛维克让赌马者从88个他们认为对计算胜率有用的变量中做出选择。这些变量包括各种各样关于历史赛马结果的统计信息。赌马者先得到10个最有用的变量,然后对赛马结果做出预测。然后他们再得到10个变量,再做出预测。信息的增加并没有提高预测的准确性,只不过他们对预测的信心极大地提高了。信息被证明是有害的。我一生中大部分时间都在“越多越好”这样的庸俗观念中挣扎。有时候多是好的,但并非总是如此。知识的危害性在我们对所谓专家的研究中能够显露出来。
还存在一种愚人效应,它产生于我们在思维上对模型外风险的忽视(只专注于我们所知道的)。我们从一个模型内部观察世界。想一想,大多数延迟和超额预算来自不被计划考虑的意外因素,也就是说,它们出于模型之外,比如罢工、断电、车祸、坏天气或者火星人入侵的谣言。这些妨碍我们计划的小黑天鹅事件是我们没有考虑到的。它们太抽象了,我们不知道它们的具体形式,无法以一种合理的方式对待它们。
1965年,斯图尔特·奥斯坎普(Stuart Oskamp)向临床心理医生提供了一系列档案,每份档案都提供了关于患者的更多信息,但心理医生的诊断能力并没有随着信息的增加而提高。他们始终对最初的诊断更有信心。确实,人们不会对1965年的心理医生有太高期望,但这些结果似乎在各个学科都是一致的。
我们并不真正擅长制订计划,因为我们不懂未来,但这不一定是坏消息。只要记住我们的这些缺陷,我们就可以制订计划,这需要的只是勇气。
消火栓实验最早出现于20世纪60年代,之后被重复过数次。我还用信息数学研究过这一效应:人们对于经验现实的细节知识了解越多,看到的噪点(也就是那些奇闻逸事)就越多,也越可能把它们错当成真实信息。请记住我们是受情感影响的。每小时收听广播新闻比阅读周刊要糟糕得多,因为较长的时间间隔能够过滤掉一些信息。
关于所谓的专家问题有大量文献,它们对专家的能力做出了实证检验,但结果最初看来有点令人疑惑。一方面,保罗·米尔(Paul Meehl)和罗宾·道斯等研究者否认专家的能力,他们告诉我们“专家”是最接近骗子的人:这些人的思考能力比只使用一个变量进行计算的计算机好不了多少,他们的直觉妨碍了他们的思考,并使他们变得盲目。(举一个只使用一个变量的例子,流动资产与流动负债的比率比大多数信用分析师的作用更大。)另一方面,大量文献表明,许多人能够凭借直觉打败计算机。哪一个是对的?
让我们看一看传记作者低估写作所需时间的原因。他根据自己的时间表制订计划,但他犯了筛选性错误,他没有预见到某些“外部”事件可能会延缓他的进度。这些外部事件包括2001年9月11日的灾难,这耽搁了他几个月;去明尼苏达州照顾生病的母亲(她最终康复了);以及许多别的事件,比如与女友分手(但不是与拉什迪的前女友)。“除此以外”,一切都在他的计划之内,写书的事一点也没有偏离时间表。他对不能按时交稿不感到负有责任。
变与不变
意外会对计划产生单边影响。想一想建筑商、论文作者和承包商的历史记录。意外几乎总是产生一个方向的结果:更高的成本和更长的完成时间。只有在很少的情况下,比如帝国大厦的建造,你会看到相反的结果:更低的成本和更短的时间,这些情况是真正的意外。
我会分别讨论如下两种情况:温和的情况,即在拥有(某种)能力的情况下的自大;严重的情况,即自大而没有能力(虚有其表)。对于有些行业,你懂的比专家还多,但却是你为他们的观点付钱,而不是他们付钱请你听他们胡说。这是哪些行业呢?