这个阶段的AI能做智能搜索、智能推荐,比如淘宝根据你的浏览记录推荐商品,就是靠知识图谱里的“用户-商品-兴趣”关系。
4. 爆发期(2020s至今):用“AI”学知识,像教小孩
现在的阶段,知识表示不用“人手动写规则”了,而是让AI自己“学”知识,核心是“神经网络表示法”。
大模型(比如GPT、文心一言)通过学习互联网上的万亿条文本,自动把词语、句子变成向量,还能学会“关系”。比如它从没见过“张三喜欢吃苹果”这句话,但见过“李四喜欢吃香蕉”“王五喜欢吃橘子”,就能通过向量分析,知道“喜欢吃”是人和水果之间的关系。
2024年之后,知识表示开始往“多模态”发展,就是把文字、图片、声音的知识都用向量表示。比如电脑能把“猫”的文字、猫的图片、“喵”的叫声变成相似的向量,这样你发一张猫的图片,它就能知道“这是猫,会叫喵,是动物”。
这个阶段的AI越来越“智能”,能写文章、做设计、回答复杂问题,但也带来了新问题:AI学的知识太多太杂,有时候会“胡说八道”(也就是“幻觉”),因为它只是靠向量匹配,不是真的理解知识。
五、看应用:知识表示离我们不远,生活里到处都是
别以为知识表示是“实验室里的东西”,其实咱们每天都在接触。从手机里的APP到路上的智能设备,背后都有它的影子。咱们挑几个常见的场景,看看它是怎么发挥作用的。
1. 智能搜索:让“搜答案”变成“给结果”
以前搜东西,比如“李白的诗”,会出来一堆网页,得自己翻;现在用百度、谷歌,直接就能看到“李白的代表作:《静夜思》《望庐山瀑布》”,还能关联到“创作背景”“赏析”,这就是知识表示的功劳。
搜索引擎里藏着一张巨大的知识图谱,用语义网络表示法把“李白”“诗”“朝代”这些知识连起来。当你输入问题,电脑先“理解”你的需求(比如“李白的诗”其实是要“李白的代表作及相关信息”),然后在知识图谱里找相关的节点和关系,最后把结果整理成你能看懂的形式。
甚至现在的搜索能处理“模糊问题”,比如你问“《静夜思》的作者是哪个朝代的,他还有啥有名的诗”,电脑能通过知识图谱里的“《静夜思》-作者-李白-朝代-唐朝-作品-《望庐山瀑布》”的关系链,一次性给你答案。
2. 智能推荐:“猜你喜欢”不是瞎猜,是靠知识关联
你在抖音刷到喜欢的视频,下次会推更多类似的;在淘宝买了一件衬衫,会推裤子、领带——这不是“玄学”,是知识表示在背后发力。
推荐系统里用了“面向对象表示法”和“知识图谱”:
- 把你当成一个“用户对象”,属性包括“年龄、性别、浏览记录、购买记录”;
- 把商品当成“商品对象”,属性包括“类型、风格、价格、关联商品”;
- 用知识图谱把“用户-商品-兴趣”连起来,比如“用户A买了衬衫→衬衫属于男装→男装关联裤子→给用户A推裤子”。
比如你在B站看了《流浪地球2》的解说,系统的知识图谱里有“《流浪地球2》-类型-科幻片-关联-《三体》《星际穿越》”,所以会给你推其他科幻片的解说,这就是“知识关联”带来的精准推荐。
3. 智能客服:24小时不睡觉,靠“规则库”接电话
你打银行、运营商的客服电话,经常会先听到“请说您的需求,比如查账单、办业务”,这背后就是“产生式表示法”的功劳。
智能客服的系统里存着几千条“如果…就…”的规则:
- 如果用户说“查账单”,就回复“请提供您的手机号,我为您查询”;
- 如果用户说“办宽带”,就回复“请问您在哪个城市?我们有100M、200M两种套餐”;
- 如果用户说的话匹配不到规则,就转人工客服。
现在的智能客服更高级了,结合了“神经网络表示法”,能理解“同义词”,比如你说“我的话费还有多少”“查一下余额”“话费剩多少了”,它都能匹配到“查账单”的规则,不用你严格按照它给的关键词说。
4. 医疗诊断:当“AI助手”帮医生看片子
在医院里,AI已经能帮医生看CT片、诊断常见病,这背后是“框架表示法”和“知识图谱”的结合。
小主,
医疗AI的系统里存着“疾病框架”:
- 比如“肺炎框架”的槽包括“症状(发烧、咳嗽、痰中带血)、CT表现(肺部有阴影)、病因(细菌感染)、治疗方法(抗生素)”;
- 当输入患者的CT片和症状,AI会把这些信息和“肺炎框架”的槽值对比,如果匹配度超过90%,就提示“可能是肺炎”,再把结果给医生参考。
还有的医疗AI用知识图谱把“疾病-症状-药物”连起来,比如患者对“青霉素”过敏,AI在推荐药物时会自动排除含青霉素的药,避免用药风险。
5. 自动驾驶:路上的“AI司机”,靠“知识”躲障碍
自动驾驶汽车能识别红绿灯、避开行人,本质是把“驾驶知识”用“神经网络表示法”和“语义网络”存起来。
汽车的传感器会把路上的信息(红绿灯、行人、其他车)变成向量,然后和系统里的知识对比:
- 看到“红灯”的向量,就匹配“停车”的规则;
- 看到“行人”的向量,就匹配“减速避让”的规则;
- 知识图谱里还有“红绿灯-路口-限速30km/h”的关系,所以到路口时会自动减速。
现在的自动驾驶还能“学新知识”,比如遇到“施工路段”,以前没见过,但通过向量分析,发现和“障碍”的向量很像,就会自动减速绕行。
六、聊问题:知识表示再牛,也有“搞不定”的事
虽然知识表示已经很先进了,但还不是“万能的”,还有一堆解决不了的难题,这些难题也是科学家们正在攻关的方向。咱们挑最关键的3个,说说它们的“痛点”。
1. 知识太“杂”:没法把“所有知识”都表示清楚
世界上的知识太多了,有“明确的知识”(比如数学公式、历史事件),还有“模糊的知识”(比如“这件衣服挺好看”“他很开心”),更有“隐性的知识”(比如骑自行车的技巧、做饭的手感)。
现在的知识表示能处理“明确知识”,但对“模糊知识”和“隐性知识”几乎没辙:
- 比如“好看”“开心”这种主观感受,没法用精确的规则或向量表示,电脑不知道“多好看算挺好看”;
- 比如骑自行车的“平衡感”,是靠身体感知的隐性知识,没法用符号或向量写出来,所以现在的AI还学不会骑自行车。
2. 知识会“变”:老知识过时,新知识跟不上
知识不是一成不变的,比如“太阳系有9大行星”后来变成了“8大行星”(冥王星被除名),“新冠病毒的治疗方法”也在不断更新。但电脑的知识表示是“静态”的,更新起来很麻烦。
比如知识图谱里存着“太阳系有9大行星”,当冥王星被除名后,得手动修改所有和“9大行星”相关的节点和关系;如果是大模型,就得重新用新数据训练,花几个月时间和几百万美元,成本特别高。
现在科学家们在研究“动态知识表示”,让AI能自己“更新知识”,比如看到新闻说“冥王星不是行星了”,就自动修改自己的知识,但目前还没完全实现。
3. 知识难“解释”:AI说“对”,但说不出“为啥对”
现在的大模型(比如GPT-4)经常能给出正确答案,但你问它“怎么想出来的”,它说不清楚——这就是“可解释性差”的问题,根源在“神经网络表示法”。
因为大模型的知识是“向量”,是一堆数字,人类看不懂。比如它说“《静夜思》的作者是李白”,你问“为啥”,它只能重复“因为《静夜思》的作者是李白”,没法像人一样说“因为课本里学过,历史资料里也有记载”。
这个问题在关键领域特别致命,比如医疗AI说“患者得了癌症”,医生得知道“AI是根据哪些症状、哪些检查结果判断的”,如果AI说不清楚,医生根本不敢用。
七、总结:知识表示的本质,是“人与机器的沟通桥梁”
聊了这么多,最后咱们回归本质:知识表示到底是啥?
其实它就是一座“桥梁”——左边是人类的“智慧世界”,有语言、经验、直觉;右边是机器的“数字世界”,有代码、符号、向量。知识表示的任务,就是把左边的东西“翻译”到右边,让机器能帮人干活。
从1943年的“产生式规则”到现在的“大模型向量”,这座桥越建越宽、越建越稳:以前只能过“简单推理”的小自行车,现在能过“复杂决策”的大卡车。但它永远成不了“传送门”,因为机器没法真正“理解”知识,只能“处理”知识。
对咱们普通人来说,不用懂具体的公式和算法,只要知道:那些让生活变方便的智能工具——能精准推荐的淘宝、能快速答疑的搜索、能24小时服务的客服——背后都是知识表示在“默默翻译”。
未来,知识表示会往“更模糊、更动态、更可解释”的方向发展,可能有一天,AI能像人一样理解“开心”的情绪,能自己更新“最新的新闻”,能说清“为啥这么想”。但到那时候,它依然是“工具”,因为真正的智慧,不仅是“处理知识”,更是“创造知识”——这一点,目前还只有人类能做到。