AI如何实现类人思考?认知模型与方法深度解析

举个例子,人类解迷宫时,会遵循“试错-调整”的逻辑:先试左边的路,走不通就退回来试右边的路,再不通就试中间的……GPS解题时也得有类似的过程。纽厄尔和西蒙甚至会把GPS的解题步骤,和人类解题时的“思维口述记录”对比,看是否一致。

这个思路直接催生出了认知科学——一门横跨人工智能、心理学、神经科学、语言学的交叉学科。它的目标是“构建精确且可检验的人类心智理论”,简单说就是:用人工智能的“计算模型”模拟思维,用心理学的“实验方法”检验模型,两者联手把人类思考的“秘密”挖透。

本小章还未完,请点击下一页继续阅读后面精彩内容!

2. 认知建模的三大技术路径

现在的AI要实现类人思考,主要靠这三条技术路线,咱们逐个分析:

(1)符号主义:给AI一套“思维规则”

把人类的知识和逻辑整理成“符号+规则”,让AI按规则推理。比如:

- 知识:“所有鸟都会飞”“企鹅是鸟”;

- 规则:“如果A是B,B是C,那么A是C”;

- 推理:AI能推出“企鹅会飞”(虽然结论不对,但逻辑是通的)。

优点:逻辑清晰、可解释性强,适合处理数学证明、法律推理这类“规则明确”的任务。早期的专家系统(比如医疗诊断系统MYCIN)就是靠这路子。

缺点:面对复杂、模糊的现实问题直接抓瞎。比如“什么是美?”“如何应对突发的金融危机?”,符号规则根本罩不住——现实世界的规则太多变、太模糊了。

(2)连接主义:让AI像大脑一样“连线”

模仿人脑的神经网络,用大量“神经元”(计算单元)的连接来学习。比如让AI看10万张猫的图片,它会自动总结出“猫有尖耳朵、胡须、绒毛”这些特征,下次看到没见过的猫也能认出来。

这就是现在大火的深度学习,ChatGPT、Midjourney、自动驾驶都靠这路子。它的优点是能处理复杂的模式识别(图像、语言、声音),不用人类手动设计特征;但缺点是“黑箱”——AI知道“这是猫”,但说不清楚“为什么认为这是猫”,也很难融入人类的常识和逻辑。

比如,你问ChatGPT“为什么天空是蓝色的”,它能给你一套科学解释,但它不是“理解”了这个问题,只是“学习了大量关于天空颜色的文本,总结出了最常见的回答模式”。

(3)行为主义:让AI在“试错”中学习

模仿人类“环境互动-奖惩反馈”的学习过程。比如让AI玩游戏,它每赢一次就给奖励(加分数),输了就给惩罚(扣分数),慢慢就学会了怎么操作能赢。

强化学习是典型代表,AlphaGo下围棋、机器人学走路、自动驾驶躲障碍物,都靠这思路。它的优点是能在动态环境中自主决策;但缺点是太依赖“试错”,现实中很多场景没法让AI随便试(比如医疗手术、航天发射,试错成本太高)。

(4)混合路线:把“三大主义”捏在一起

现在前沿的研究是走“混合路线”,结合多种技术的优点:

- 用连接主义处理“感知”(比如识别图像、理解语言);

- 用符号主义处理“逻辑推理”(比如做数学证明、规划路线);

- 用行为主义处理“决策执行”(比如在复杂环境中行动)。

举个例子,自动驾驶汽车的工作流程:

- 先靠深度学习识别红绿灯、行人、车辆(感知);

- 再用符号规则规划最优路线(推理);

- 最后靠强化学习调整驾驶策略(比如遇到突发情况是刹车还是避让)。

三、当前AI离“类人思考”还有多远?

实话实说,现在的AI还差得远,主要卡在这几个“硬骨头”上:

1. 常识理解:AI是“常识盲”

人类天生就懂很多常识,比如“人要吃饭才能活”“冰会融化”“熬夜对身体不好”。但AI得靠人类喂大量数据才能学,而且经常学歪。

比如,你问ChatGPT“如果一个人一周没吃饭,会怎么样?”,它能给出科学回答;但你要问“如果一个人一周没吃饭,还能跑马拉松吗?”,它可能会一本正经地分析“理论上的可能性”,完全忽略“人一周不吃饭早就没力气了”这个基本常识。