3. 逻辑主义的“死穴”:现实世界不是“非黑即白”
但逻辑主义有个致命缺点:它只能处理“确定的、非黑即白”的知识,没法应对现实世界的“不确定性”。
比如,“鸟会飞”在逻辑上是“?x(鸟(x)→飞(x))”,但现实中鸵鸟、企鹅不会飞,这就导致推理结论错误。再比如,“明天会下雨吗?”这个问题,现实中只能得到“可能下雨”的不确定答案,而逻辑主义要求“要么下雨,要么不下雨”,根本处理不了“可能”这种模糊的情况。
人类在这种“不确定”的情况下,依然能做出理性决策(比如“可能下雨就带伞”),但纯靠逻辑的AI就会“卡壳”——因为它的“思考规则”里没有“不确定”的位置。
三、概率论:让AI在“不确定”中理性思考
为了让AI应对现实世界的“不确定性”,“概率论”被引入到理性思考的框架中。它的核心是**“在信息不确定时,通过概率计算来做最优决策”**。
1. 概率推理的“基本逻辑”:用可能性衡量不确定性
概率推理的思路很简单:把“不确定的事件”用“发生的可能性大小”来量化。比如“明天下雨的概率是60%”,“抛硬币正面朝上的概率是50%”。
AI进行概率推理时,通常会用到“贝叶斯定理”,它的核心是**“根据新证据不断更新对事件的概率判断”**。公式是:
P(A|B) = \frac{P(B|A) \times P(A)}{P(B)}
翻译成大白话就是:“在出现证据B后,事件A发生的概率 = (事件A发生时出现B的概率 × 事件A原本的概率) ÷ 证据B本身的概率”。
举个例子,判断“小明感冒了(A)”的概率,已知“小明咳嗽(B)”:
- P(A) :小明原本感冒的概率(比如10%);
- P(B|A) :感冒时咳嗽的概率(比如80%);
- P(B) :小明咳嗽的总概率(比如20%,因为咳嗽也可能是因为过敏、抽烟等);
- 代入公式: P(A|B) = \frac{80\% \times 10\%}{20\%} = 40\% 。
所以,在小明咳嗽的情况下,他感冒的概率是40%——这个结论比纯逻辑的“要么感冒要么不感冒”要合理得多,也更贴近现实。
2. 概率推理的“应用场景”:从医疗诊断到金融风控
概率推理在AI中有很多实际应用:
- 医疗诊断:AI通过患者的症状(咳嗽、发烧、乏力等),结合每种疾病对应的症状概率,计算患者得某种疾病的概率。比如某AI诊断系统对肺炎的诊断准确率能达到90%以上,就是靠大量的概率数据训练出来的。
- 金融风控:银行判断用户是否会违约,会分析用户的收入、负债、信用记录等因素,给每个因素分配概率权重,最后计算出用户违约的概率。如果概率超过一定阈值,就拒绝贷款。
- 自动驾驶:汽车通过传感器感知周围环境,比如“前方有物体的概率是95%”“是行人的概率是80%”,然后结合这些概率,决策是刹车、避让还是继续行驶。
3. 概率推理的“进阶:贝叶斯网络”
为了处理更复杂的概率推理,人们发明了“贝叶斯网络”——把多个事件的概率关系用“网络结构”表示出来。
比如,一个简单的贝叶斯网络可以表示“吸烟→肺癌→咳嗽”的关系:
- 吸烟(S)是肺癌(L)的原因,肺癌是咳嗽(C)的原因;
- 每个节点都有对应的概率表,比如P(S)(吸烟的概率)、P(L|S)(吸烟时得肺癌的概率)、P(C|L)(得肺癌时咳嗽的概率)。
当有新证据时(比如“咳嗽了”),贝叶斯网络能通过概率传播,计算出“吸烟”“得肺癌”的后验概率,帮助AI做出更全面的判断。
现在的AI在处理复杂的不确定性问题时,大多依赖贝叶斯网络或其升级版(比如马尔可夫决策过程、隐马尔可夫模型)。
四、从“理性思考”到“理性行动”:AI成为“理性智能体”
但光“会思考”还不够,AI得把思考转化为“行动”,才能真正解决现实问题。这就需要“理性智能体”的概念——一个能感知环境、理性思考、做出最优行动的系统。
1. 理性智能体的“构成要素”
一个完整的理性智能体通常包含四个部分:
- 感知模块:收集环境信息,比如自动驾驶汽车的摄像头、雷达;