引言:AI不是“突然火的”,而是熬了70年的“老技术”
现在打开手机,ChatGPT能陪你聊天写报告,Midjourney能按你的想法画插画,自动驾驶汽车能自己拐弯避障——好像AI是近几年突然“蹦出来”的黑科技。但其实,从人类第一次想让机器“像人一样思考”到今天,AI已经走了近70年。
这70年里,它既当过被捧上天的“未来明星”,也两度跌入无人问津的“寒冬”;既靠算数学题起家,又靠“读万卷书”学会了创作。就像一个从牙牙学语的婴儿,慢慢长成多才多艺的少年,它的每一步成长都藏着人类对“智能”的执着探索。今天就用大白话,讲讲AI从1956年到2023年的“前世今生”。
一、1956-1970s:AI的“出生”与第一次“做梦”
1. 1956年:一场暑假会议,给AI“上了户口”
1956年夏天,美国达特茅斯学院开了个特别的“暑假班”,8个科学家凑在一起聊了两个月,主题是“如何让机器模拟人类智能”。其中有个叫约翰·麦卡锡的年轻人,第一次提出了“Artificial Intelligence”(人工智能)这个词——相当于给这个新领域起了名字,这就是AI的“出生证”,史称“达特茅斯会议”。
这群科学家当时信心爆棚,麦卡锡甚至说“暑假就能搞定智能机器”。会议上,有两人还展示了世界上第一个AI程序“逻辑理论家”,能自动证明数学定理,就像给机器请了位“数学老师”。会后,麦卡锡和另一位科学家马文·明斯基在MIT建了第一个AI实验室,算是给AI安了个“家”。
2. 早期AI:只会“照本宣科”的“做题家”
那时候的AI,走的是“符号逻辑”路线——简单说就是把人类的知识变成一条条规则,让机器照着推理。比如想让机器识别“苹果”,就得先告诉它:“圆形、红色、直径5-10厘米、带柄、能吃”,少一个条件它就认不出来。
这期间也出了些有意思的尝试:1956年,有人做了个跳棋程序,能通过自我对弈学技巧,还在电视上打败了人类玩家,算是早期“机器学习”的雏形;1957年,又发明了“感知器”,这是AI的第一个“简易大脑”,模仿人类神经元工作,能分辨简单的图形。
但问题很快暴露了:机器只会处理“玩具级问题”。比如算数学题还行,可让它判断“下雨天要不要收衣服”,它就懵了——因为这涉及“下雨大小、衣服是否怕湿、有没有人在家”等一堆常识,根本没法全写成规则。更头疼的是“组合爆炸”,问题稍微复杂点,计算量就呈指数级增长,当时的计算机根本扛不住。
3. 第一次AI寒冬:“吹的牛”圆不上了
到了1970年代,大家发现AI根本达不到预期。1973年,英国出了份《莱特希尔报告》,直接批评AI“只会在实验室里折腾,解决不了实际问题”。这下投资方慌了,美国国防部、英国政府纷纷砍经费,很多AI项目直接停摆,整个领域陷入沉寂——这就是AI的第一次“寒冬”,相当于创业公司吹了大牛皮,最后融不到钱了。
二、1970s末-1990s:AI换赛道“谋生”,又摔了一跤
1. 专家系统:靠“抄专家笔记”逆袭
寒冬里,科学家们换了个思路:既然做不了“全能选手”,那就当“领域专家”。于是“专家系统”诞生了——简单说就是把医生、工程师这些行业专家的经验,一条条写成规则输进机器,让机器替专家做简单决策。
比如有个叫MYCIN的医学AI,专门诊断血液感染,能根据症状推荐抗生素,准确率比普通医生还高;还有个叫XCON的系统,帮DEC公司配置服务器,每年能省4000万美元。这下企业看到了好处,1980年代美国几乎所有大公司都搞起了AI团队,日本还推出“第五代计算机计划”,想造能推理的专用机器,AI一下子又火了,1988年产业估值冲到了几十亿美元。
2. 第二次AI寒冬:“死板专家”被抛弃
好景不长,专家系统的毛病越来越明显。首先是“知识难获取”,要让老专家把一辈子的经验写成规则,不仅费时间,还容易遗漏;其次是“太死板”,只要遇到规则外的情况就歇菜——比如MYCIN不知道“病人对青霉素过敏”,就会瞎推荐;最后是“维护贵”,市场一变化,就得重新改几百上千条规则,企业根本扛不住。
1987年,AI再次被泼冷水,企业纷纷撤资,AI公司倒闭一大片,第二次“寒冬”来了。有意思的是,这次寒冬里藏着转机:1986年,有个叫杰弗里·辛顿的科学家改进了“反向传播算法”,能让多层神经网络学会纠错;1989年,另一位科学家杨立昆把“卷积神经网络”用到了手写数字识别上,银行用它自动读支票,已经能实际干活了。只是当时没人想到,这俩技术后来会引爆AI革命。
本小章还未完,请点击下一页继续阅读后面精彩内容!
3. 1997年:深蓝“打脸”人类,却没救了AI
1997年,IBM的超级计算机“深蓝”以3.5:2.5击败了国际象棋世界冠军卡斯帕罗夫,全世界都炸了——这是人类第一次在顶级智力游戏上输给机器。但其实深蓝没那么“智能”,它就是靠每秒算2亿步的速度,把所有可能的走法都列出来选最优解,本质是“暴力计算”,不是真的“会下棋”。
所以深蓝的胜利没让AI热起来,反而让大家觉得“AI就是堆算力”。不过这十年里,AI悄悄换了赛道:从“人工写规则”变成了“让机器自己学”,也就是“机器学习”。支持向量机、贝叶斯网络这些算法开始流行,语音识别、数据分类能用了,只是还没到让人眼前一亮的程度。这时候的AI,就像在默默攒技能的“学徒”,等着机会爆发。
三、2006-2012:三要素集齐,AI“开窍”了
1. 深度学习的“三板斧”:数据、算力、算法
AI真正的转折点在2006年,辛顿正式提出“深度学习”概念——简单说就是用更深层的神经网络,让机器像人一样“从数据里学知识”。但光有概念不够,得有“三板斧”才管用:
第一是“海量数据”。互联网普及后,照片、文本、语音全变成了数字,比如你发的朋友圈、拍的照片,都成了AI的“练习题”。2009年,李飞飞团队搞了个“ImageNet”项目,找了1500万张图片,标上“猫、狗、汽车”等标签,相当于给AI准备了“看图识字大全”。
第二是“强大算力”。以前训练神经网络像用“自行车拉货”,2000年后GPU(图形处理器)派上了用场。GPU本来是玩游戏用的,擅长并行计算,训练神经网络的速度一下子快了几百倍,相当于把“自行车”换成了“卡车”。后来谷歌还造了专门的TPU芯片,算力更猛。
第三是“好用算法”。辛顿的“深度信念网络”解决了深层网络“学不会”的问题,杨立昆的卷积神经网络擅长“看图像”,还有循环神经网络擅长“读文本”。这三个要素凑齐,AI就像打通了“任督二脉”。
2. 2012年:AlexNet一战封神,深度学习爆发
2012年的ImageNet竞赛成了转折点。辛顿的学生亚历克斯用“AlexNet”模型参赛,把图像识别错误率从26%降到15%,比第二名整整低了11个百分点——这在以前根本不敢想。
AlexNet的秘诀很简单:用了8层神经网络,靠GPU加速训练,还会“数据增强”(比如把图片翻转、裁剪,造出更多练习题)。它的成功证明了深度学习能搞定“看东西”这个大难题,从此传统算法被彻底淘汰,所有AI公司都开始搞深度学习。这一年,算是AI的“成人礼”,终于从“学徒”变成了“高手”。
四、2013-2020:AI“闯关升级”,打败人类高手
1. 2016年:AlphaGo下赢围棋,人类“最后的智力堡垒”破了
2016年,谷歌DeepMind的AlphaGo和围棋世界冠军李世石对战,4:1获胜,这比深蓝赢国际象棋震撼多了——围棋有10的170次方种走法,比宇宙中的原子还多,根本没法“暴力计算”。
AlphaGo的厉害之处在于“会思考”:它用深度学习“看棋盘”,用“蒙特卡洛树搜索”选走法,还通过和自己下棋几百万盘“积累经验”。对战中,它下出第78手“天外飞仙”,连李世石都看懵了,因为这步棋完全跳出了人类棋谱。更牛的是它的升级版AlphaZero,从零开始学围棋,36小时就打败了所有前辈,相当于“闭关36小时,直接拿世界冠军”。
这时候大家才意识到,AI已经能处理“没有固定规则”的复杂问题,进入了“认知智能”阶段。
2. 2017年:Transformer架构,给AI装了“注意力放大镜”
2017年,谷歌发表了一篇论文《Attention is All You Need》(注意力就是一切),提出了“Transformer”架构——这是AI发展史上的“里程碑”,相当于给AI换了个更聪明的“大脑结构”。
以前的AI读文本是“从头读到尾”,比如读“王姐给闺蜜的男友的前任点了赞”,得一个个词捋,容易搞混关系。Transformer的“注意力机制”就像放大镜,能瞬间抓住“王姐”“闺蜜的男友的前任”这些关键角色,理清逻辑。而且它能并行处理数据,训练速度快了好几倍。
这个架构直接催生了后来的大语言模型,比如GPT、BERT,都是在它的基础上做的。可以说,没有Transformer,就没有今天的ChatGPT。
小主,
3. 2020年:GPT-3横空出世,能写代码会写诗
2020年,OpenAI推出GPT-3,参数量达到1750亿——相当于给AI装了个“超级大脑”,里面存了海量的书籍、网页、代码。它的厉害之处在于“少样本学习”:不用专门训练,给几个例子就能干活。
比如让它把特朗普的讲话翻译成李清照的词风,它能立刻搞定;让它用《新华字典》里的生僻字写武侠小说,它也能编得有模有样;甚至给它个需求,它能直接写出Python代码。虽然偶尔会“一本正经地胡说八道”,但已经让人们看到了AI的潜力——这东西好像啥都会。
五、2022-2023:生成式AI爆发,走进普通人的生活
1. 2022年:ChatGPT刷屏,AI成了“全民助手”
2022年11月,OpenAI发布ChatGPT,彻底把AI从实验室拉到了普通人身边。它基于GPT-3.5,最大的特点是“会聊天”——不像以前的机器人只会答非所问,ChatGPT能理解上下文,比如你跟它说“帮我写封请假条,理由是陪老人看病”,它写完你说“改得正式点”,它能立刻调整,就像个真人助理。
更夸张的是它的增长速度:上线两个月用户破1亿,是史上增长最快的消费应用。学生用它写作业,程序员用它查bug,职场人用它写报告,甚至有人用它生成短视频脚本、改简历。这时候的AI,不再是遥远的技术,成了能随手用的“工具”。
2. 多模态AI:能看能听,还能“造世界”
ChatGPT火的同时,“文生图”AI也爆了。2022年,DALL·E 2、Stable Diffusion、Midjourney相继出现,你只要输入文字提示,比如“赛博朋克风格的故宫,下雨天,霓虹灯闪烁”,AI就能生成一张堪比插画师水平的图片。
到了2023年,OpenAI发布GPT-4,直接支持“文本+图像”输入——你给它拍张凌乱的书桌,说“帮我列个整理计划”,它能看懂图片,给出具体步骤;你给它看道数学题的图片,它能直接解题。谷歌、Meta也跟着发布PaLM 2、LLaMA等大模型,AI正式进入“群雄争霸”时代。
这时候的AI已经是“多面手”:能看(图像识别)、能听(语音识别)、能说(文本生成)、能画(图像生成),甚至能帮科学家预测蛋白质结构、通过律师考试。