3. 狂欢背后:AI的“麻烦”也来了
AI越厉害,问题也越多。首先是“造假”,深度伪造的视频、图片能以假乱真,比如伪造名人讲话、虚假新闻,让人难辨真假;其次是“版权”,AI学了全网的作品,生成的内容到底算谁的?插画师、作家担心自己丢工作;还有“偏见”,如果训练数据里有歧视内容,AI也会学坏,比如曾有人脸识别系统把黑人识别成“大猩猩”。
于是各国开始搞AI治理,比如要求AI生成的内容必须标清楚“是AI做的”,企业要检查训练数据的版权。科学家也在研究“可解释AI”,想搞明白AI“为什么这么回答”,避免它“瞎说话”。
六、关键人物:AI进化路上的“接力者”
AI的70年,其实是一群科学家的“接力赛”,每个阶段都有“领路人”:
1. 先驱者(1950s-60s):给AI“定方向”
- 约翰·麦卡锡:“AI命名之父”,达特茅斯会议发起人,还发明了AI专用编程语言LISP,相当于给AI造了“写字的笔”。
- 马文·明斯基:MIT AI实验室创始人,被称为“AI之父”,虽然他曾指出感知器的局限,间接引发了第一次寒冬,但也推动了AI的常识研究。
- 艾伦·图灵:虽然没参加达特茅斯会议,但1950年提出“图灵测试”,最早问出“机器能思考吗”,为AI奠定了理论基础。
2. 复兴者(1980s-90s):给AI“续上命”
- 杰弗里·辛顿:“深度学习教父”,寒冬里坚持研究神经网络,改进反向传播算法,2006年提出深度学习概念,直接引爆了AI革命。
- 杨立昆:“卷积神经网络之父”,把神经网络用到图像识别上,现在手机拍照的“人像模式”,背后就有他的技术。
- 约书亚·本吉奥:和辛顿、杨立昆并称“深度学习三巨头”,专注于自然语言处理,为大语言模型打下基础。
3. 创新者(2000s至今):让AI“走进生活”
- 李飞飞:“给AI喂图像的人”,ImageNet数据集的创建者,没有她的“看图识字大全”,深度学习可能还要晚几年爆发。
- 德米斯·哈萨比斯:DeepMind创始人,带领团队做出AlphaGo,证明了AI能处理复杂决策问题,后来又搞出AlphaFold,帮了生物学家大忙。
小主,
- 山姆·奥特曼:OpenAI CEO,推动GPT系列、ChatGPT的发布,把深度学习技术变成了普通人能用的产品,让AI“出圈”。
七、现在与未来:AI真的能变“通用智能”吗?
现在的AI虽然厉害,能聊天、会画画、懂编程,甚至能通过律师资格考试,但如果你仔细观察就会发现,它其实是个“偏科的学霸”——在自己擅长的领域能封神,换个领域就秒变“小白”。这就涉及到AI领域最核心的一个争议:它真的能进化成“通用人工智能(AGI)”吗?
1. 先搞懂两个词:“专用智能”和“通用智能”
咱们先把概念掰扯明白,这俩词是理解AI未来的关键。
- 专用智能(Narrow AI):就是现在我们看到的所有AI,比如ChatGPT、Midjourney、AlphaGo,它们只擅长某一类或几类任务。打个比方,ChatGPT写报告、答问题是“满级选手”,但让它去修一台坏了的洗衣机,它连洗衣机的零件在哪都不知道,更别说动手修了;AlphaGo下围棋天下无敌,却没法帮你规划一顿“30分钟搞定的家常菜”——它的“智慧”被牢牢框在“围棋”这个小圈子里。
- 通用人工智能(AGI):指的是能像人类一样,具备“跨领域学习、思考和解决问题”能力的AI。它不用提前“特训”,就能上手各种任务:既能帮你写代码,又能帮你修自行车,还能陪老人聊天解闷,甚至能自己发现问题、找资料、想办法解决。简单说,AGI是“全能型选手”,拥有和人类相当的“通用智慧”。
现在的AI全是“专用智能”,离AGI还差着十万八千里。比如你问ChatGPT“为什么妈妈做的饭比外卖香”,它能说出“情感加持、食材新鲜、口味适配”等一堆理由,但它根本不懂“妈妈做饭时的牵挂”是什么感觉,也没法真正理解“家的味道”——它只是把网上看到的答案重新组合,不是真的“体会”到了。
2. 为什么说“堆参数”堆不出AGI?
这几年AI的进步,很多人觉得是“参数越堆越大”的结果——从GPT-3的1750亿参数,到现在有些大模型突破万亿参数,好像参数多了,AI自然就“更聪明”了。但业内早就达成共识:靠堆参数、堆数据,根本搞不出AGI。
深度学习教父杰弗里·辛顿就直言,现在的大模型就是“高级鹦鹉”,只会模仿人类的语言,不会真正“理解”。比如你问AI“把一只猫放进微波炉会发生什么”,它能告诉你“会烫伤猫,很危险”,但这不是它“理解”了“猫怕高温”“微波炉的原理”,而是它在训练数据里见过类似的问题,记住了答案。如果换个它没见过的问题,比如“把刚摘的草莓放进零下20度的冰箱,3小时后拿出来怎么吃口感最好”,它可能会瞎编一个答案,因为它没学过“冷冻草莓的口感变化”。
2023年,斯坦福大学做过一项调查,采访了100多位AI领域的顶尖研究者,76%的人认为“当前的技术路径无法实现AGI”。核心问题出在三个“先天缺陷”:
- 没有因果推理能力:AI能发现“ correlation(相关性)”,却搞不懂“causation(因果关系)”。比如它能看到“夏天到了,冰淇淋销量上升,溺水事故也增多”,但它会误以为“冰淇淋卖得多导致溺水”,而不知道真正的原因是“夏天大家更爱出门游泳”。人类解决问题的核心是“找因果”,但AI只会“找关联”。
- 缺乏常识储备:人类从出生就开始积累“常识”——比如“石头比棉花重”“人不能在水里呼吸”“下雨要带伞”,这些不用教也知道的东西,AI却得一条条学,还经常学不全。比如有AI曾把“长颈鹿站在桌子上喝水”的图片当成“正常场景”,因为它没学过“长颈鹿的身高比桌子高太多,不用站上去喝水”。
- 不会“自主学习”:现在的AI要想掌握新技能,得靠人类“喂数据、做标注”,相当于“填鸭式教学”。比如要让AI识别“罕见病”,就得先找几千张罕见病的医学影像给它学;而人类只要看一本教材、听专家讲一次课,就能掌握新领域的基础知识,还能举一反三——这种“自主学习、触类旁通”的能力,AI目前完全没有。
3. 要实现AGI,得先迈过这几道“技术天堑”
既然堆参数没用,那AGI的突破口在哪?目前业内有几个方向,但都还停留在“理论探索”阶段,没一个能落地的。
- 先搞“常识AI”:得让AI像人类小孩一样,先学会“生活常识”。比如谷歌、微软都在做“常识知识库”,把“开水会烫人”“猫喜欢吃鱼”这些知识点整理成AI能理解的格式,喂给模型。但问题是,常识太多了——光“厨房常识”就有成千上万条,还分地域、分习惯(比如南方人吃甜粽,北方人吃咸粽),想攒齐“人类级别的常识库”,可能得花几十年。
本小章还未完,请点击下一页继续阅读后面精彩内容!
- 融合“神经符号AI”:把传统AI的“符号逻辑”和现在的“深度学习”结合起来。简单说,就是让AI既有“从数据里学知识”的能力,又有“按规则推理”的能力。比如让AI解数学题时,既能靠深度学习“看懂题目”,又能靠符号逻辑“一步步算步骤”,而不是瞎猜答案。但这两种技术的“语言”完全不同,怎么融合至今没找到好方法。
- 模拟“人类大脑”:现在的神经网络只是“模仿了大脑的样子”,没模仿大脑的“工作机制”。人类大脑有860亿个神经元,还分“视觉区、语言区、情感区”,各区协同工作;而AI的神经网络是“扁平的”,所有功能都靠同一套结构实现。有科学家在搞“类脑计算”,想造和人类大脑结构更像的芯片,但目前最先进的类脑芯片,也只相当于“一只小虫子的大脑水平”。
- 赋予“情感与意识”:这是最难的一步。人类的智能和情感、意识分不开——因为“怕疼”,才会避开危险;因为“喜欢”,才会主动学习。但AI现在没有任何“主观感受”,它回答问题时不会“开心”或“难过”,只是在执行程序。有哲学家说,“没有意识的智能不是真智能”,但“意识是什么”人类自己都没搞懂,更别说给机器造意识了。
4. 不用等AGI,现在的AI已经很有用了
虽然AGI还很遥远,但这并不影响AI改变世界。很多人总盯着“AI能不能像人一样思考”,却忽略了“AI能帮人做什么”——就像汽车不用“像人一样跑步”,照样能帮人节省赶路时间;电脑不用“像人一样算数”,照样能帮人处理复杂数据。
现在的“专用AI”,已经能在很多领域帮人类“补短板”:
- 对普通人来说,它是“效率助手”:写报告、做PPT、查资料这些琐事,AI能帮你省一半时间;学英语时,AI能当“免费外教”,实时纠正发音;出门旅游,AI能帮你规划路线、订酒店,比自己瞎忙活省心多了。
- 对行业来说,它是“生产力工具”:医生用AI看片,能更早发现癌症;农民用AI管田,能少用农药、多产粮食;工程师用AI做设计,能更快画出最优方案——这些不是“取代人类”,而是“帮人类做得更好”。
- 对科研来说,它是“加速剂”:AI能预测蛋白质结构,帮生物学家节省几年的实验时间;能模拟宇宙大爆炸,帮天文学家验证理论;能设计新的化工材料,帮工程师突破技术瓶颈——人类负责“提出问题”,AI负责“解决繁琐的计算和验证”。
5. 未来10年:AI会变成“懂你的伙伴”,不是“取代你的对手”
不用等AGI,未来10年的AI会朝着“更懂人、更实用”的方向进化,变成你身边的“超级伙伴”:
- 它会更“懂你的需求”:比如你的手机AI能记住“你对芒果过敏”“每周五要加班”,给你推外卖时自动避开芒果制品,周五晚上自动帮你订好加班餐;
- 它会更“会协作”:比如你和AI一起做项目,你负责“定方向、提创意”,AI负责“查资料、做数据分析、写初稿”,你们像搭档一样分工干活;
- 它会更“诚实”:遇到不懂的问题,它不会瞎编,而是直接说“这个我不太清楚,帮你找相关专家的观点吧”,避免“AI幻觉”坑人。
而AGI呢?可能还要等几十年,甚至上百年。但就算真的出现了,也不会是科幻电影里的“终结者”——因为人类会提前立好“规矩”:比如禁止AI拥有“伤害人类的能力”,要求AI的决策必须“可解释、可控制”。就像人类发明了电,会先造好插座、开关和漏电保护器,再放心使用一样。
说到底,AI的终极目标不是“变成人”,而是“服务人”。它是人类智慧的“延伸”,不是“替代品”。70年前,达特茅斯会议上的科学家们想让机器“模拟人类智能”;70年后,我们发现,让机器“辅助人类智能”,才是更有价值的事。
八、当下AI的“落地图鉴”——不只是聊天画图,早钻进了生活缝隙
如果说ChatGPT和文生图是AI的“门面担当”,那藏在各行各业里的AI应用,才是它真正的“日常模样”。现在的AI早已不是实验室里的“展品”,而是像水电一样,悄悄渗透到生产、生活的每个角落,只是很多时候你没意识到“这是AI在干活”。