1996年至1998年,英国母亲克拉克的两个幼子先后在家中夭折,警方以涉嫌谋杀对她提起公诉。专家证人梅多教授错误地计算婴儿猝死综合征的家庭复发概率为7300万分之一,暗示两个孩子自然猝死的可能性微乎其微。陪审团受此误导,于1999年判定克拉克谋杀罪名成立。2003年,上诉法院推翻原判,指出判决犯了双重错误:一是错误地将两次事件视为独立事件计算概率;二是以“假设嫌疑人是无辜的,那么案件就基本不可能发生”这一主观逻辑判断。有其他更合理证据支撑,克拉克最终获释。这一案例是典型的“检察官谬误”,充分说明“统计决定思维”在某些情况下是很危险的。但我们面临一个颇为尴尬的现实:在AI发展过程中,最早的专家知识系统却被基于统计算法的系统打败了。1997年5月11日,IBM的计算机“深蓝”在六局制比赛中,以3. 5 ∶ 2.5 的总比分击败了世界国际象棋冠军卡斯帕罗夫,成为人工智能的里程碑事件。2016年3月,AlphaGo在五番棋比赛中以4∶1击败李世石,被认为是人工智能在围棋领域超越人类的标志性事件。奇怪的是:AlphaGo的核心算法与统计学有直接且深刻的联系,而深蓝的核心算法则基本与统计学原理无关,本质上是一个基于确定性的暴力搜索和人类专家知识的系统。AlphaGo通过统计学习“涌现”出来的最优策略,更为强大,所以这又不得不提醒我们,在当前AI发展道路上,统计思维仍处于主导地位。