超3000学者呼吁暂停超级AI研发:到底在怕什么

- 有公司用AI伪造央视主持人的形象和声音,推销普通食品,宣称能“治疗头晕、手麻”,骗了不少老人的钱 。

- 有茶企用AI“复活”已故的茶界泰斗张天福,让他“代言”产品,很多消费者以为是真的,其实都是AI生成的 。

- 还有人用AI换脸技术,把知名演员的脸“贴”到小短剧演员脸上,侵犯了明星的肖像权,还骗观众“有大牌演员参演” 。

现在监管部门已经出台了《人工智能生成合成内容标识办法》,要求AI生成的内容必须“打标”,但还是有人会偷偷擦掉标识。要是超级AI来造假,根本不会留下“痕迹”,到时候“真新闻和假新闻分不清”“真人和AI分身分不清”,人类社会的“信任体系”会彻底崩塌 。

小主,

3. 监管跟不上技术:现在的“规则”管不了超级AI

现在全球对AI的监管,基本还停留在“管普通AI”的阶段,比如要求AI生成内容打标、禁止AI换脸诈骗,但这些规则对超级AI来说,就像“用小学生守则管成年人”,根本没用。

举个例子:现在的AI监管靠“平台审核”,比如抖音、微博会删违规的AI内容,但超级AI能轻松“绕过审核”——它可以生成“看似合规但实则有害”的内容,比如用“鸡汤文”包装仇恨言论,平台根本检测不出来。

更关键的是,现在没有“全球统一的AI监管规则”。欧盟要求AI“透明可追溯”,美国靠“行业自律”,中国强调“安全可控”,但各国的标准不一样。超级AI是“无国界的”,它可以在监管松的国家研发,然后作用于全球,到时候根本没人能管得住它。

这也是大佬们呼吁暂停的核心原因之一:现在的技术跑得太快,规则和安全措施根本跟不上,与其“边跑边补”,不如先停下来,等准备好再出发。

五、呼吁的本质:不是“禁止AI”,是“先搞安全再发展”

很多人误解了这次联署,以为大佬们想“彻底禁止AI研发”,其实不是。他们呼吁的是“暂停超级智能研发”,不是“暂停所有AI研发”;而且暂停是“有条件的”——等科学界证明超级AI“安全可控”,并且获得公众支持后,再继续搞。

简单说,这就像“盖高楼”:现在大家都在拼命往上盖,但有人发现“地基还没打牢”,要是继续盖,楼迟早会塌。所以呼吁“先停下来,把地基(安全措施)打牢,再接着盖”。

1. 暂停的核心诉求:给“安全研究”留时间

大佬们不是“反对AI发展”,而是“反对盲目发展”。他们希望用暂停研发的时间,做好这几件事:

- 搞清楚“怎么控制超级AI”:现在人类根本不知道怎么确保超级AI的目标和人类一致,得先研发出“安全技术”,比如给AI装“伦理芯片”,或者设计“无法破解的安全锁”,确保AI不会失控 。

- 制定“全球统一的规则”:就像核武器有《不扩散条约》一样,超级AI也需要全球各国达成共识,比如“禁止用超级AI搞战争”“限制超级AI的自主决策权”,避免“军备竞赛”。

- 让公众“有话语权”:超级AI关系到每个人的命运,不能只由科技公司和科学家说了算。得让普通人参与讨论,比如“超级AI应该有哪些权利”“人类能接受AI做哪些事”,确保发展方向符合公众利益 。

中科院的曾毅研究员说得很实在:“不是说超级AI一定是坏的,它也可能是‘超级利他、超级共情’的,但前提是我们得找到正确的发展方式。现在我们连‘怎么确保安全’都不知道,冒然推进就是拿全人类赌命。”

2. 中国学者的态度:呼应“安全可控”的发展理念

这次联署里有不少中国学者,比如姚期智、张亚勤,他们的参与不是“跟风”,而是呼应了中国一直倡导的AI发展理念——“安全、可靠、可控”“以人为本”。

中国对AI的态度一直是“稳扎稳打”:比如在AI医疗、AI自动驾驶这些领域,先搞“试点”,等技术成熟、安全可控了再推广;在AI伦理方面,早就成立了“人工智能伦理委员会”,制定相关规范。

不过中国学者也认为,“暂停不是目的,发展才是”。曾毅就预测:“以50年为限,超级AI一定会来,关键不是‘阻止它来’,而是‘准备好迎接它’。”比如研发“类脑智能”,让AI的思维方式更接近人类;或者用“生物材料”做AI,减少它和人类的“隔阂”。

3. 普通人能做什么?别当“旁观者”,要当“参与者”

可能有人觉得“这是大佬们的事,跟我没关系”,但其实超级AI的影响会落到每个人身上,普通人也能为“AI安全”做贡献。

比如:

- 多了解AI知识:别再把AI当成“神秘的黑科技”,多看看AI安全的新闻、科普,知道AI可能带来哪些风险,这样才不会“盲目乐观”或“过度恐慌”。

- 主动表达观点:现在很多机构会征集公众对AI的看法,比如“你能接受AI替你做医疗决策吗?”“你觉得AI应该被赋予情感吗?”,可以积极参与投票、留言,让自己的声音被听到。

- 警惕AI滥用:遇到AI换脸诈骗、AI伪造信息,及时向监管部门举报;在网上看到“可疑的AI内容”,别轻易转发,避免帮着传播虚假信息。

就像“环境保护需要每个人参与”一样,AI安全也需要普通人的关注和监督——毕竟这是“我们每个人的未来”。

六、最后总结:不是“怕AI”,是“怕人类自己太急躁”

说了这么多,其实核心就一句话:这次3000多学者呼吁暂停超级AI研发,不是“怕AI本身”,而是“怕人类在没准备好的情况下,被技术推着走”。

AI本身没有“好与坏”,就像火能做饭取暖,也能烧毁房屋;核能能发电,也能制造核武器。超级AI如果发展得当,可能会帮人类攻克癌症、实现星际旅行,让文明再上一个台阶;但如果发展不当,就可能带来经济崩溃、甚至人类灭绝的风险。

现在的问题是,人类就像“拿着一把没开刃的刀,却急着去砍树”——刀很锋利(技术很强),但我们还没学会怎么握刀(安全措施没做好),也不知道该砍哪棵树(发展方向不明确)。所以大佬们呼吁“先停下来,磨好刀、选好树,再动手”。

对普通人来说,不用“谈AI色变”,也别“盲目崇拜AI”。可以期待AI带来的便利,但也要警惕它带来的风险;可以享受AI的服务,但也要关注AI的发展方向。毕竟,超级AI的未来不是“由AI决定的”,而是“由人类自己决定的”。