但后来OpenAI的发展方向变了。最明显的就是2019年,OpenAI从“非盈利组织”改成了“盈利性公司”,还和微软合作,获得了微软的巨额投资。马斯克觉得,OpenAI变成盈利公司后,可能会为了赚钱,加快AI的发展速度,而忽略了AI的安全问题。比如为了推出更强大的AI产品,可能会减少对AI风险的测试,让AI在还没完全“可控”的情况下就投入使用,这就增加了AI“不确定性”带来的风险。
还有一个矛盾点,就是AI的“透明度”。马斯克希望AI的决策过程是“透明”的,比如AI做出一个决策,人类能知道它是怎么思考的、为什么这么做,这样一旦出现问题,人类能及时纠正。但OpenAI后来推出的AI产品,比如ChatGPT,它的决策过程是“黑箱”式的——人类不知道它是怎么得出答案的,只能看到结果。马斯克觉得这种“黑箱”AI特别危险,因为如果AI的决策出现错误,人类都不知道问题出在哪儿,更没法解决,这就违背了他一开始“避免AI风险”的初衷。
所以在2018年,马斯克就退出了OpenAI的董事会,后来慢慢和OpenAI分道扬镳。他不是反对AI发展,而是反对“不顾安全的AI发展”。从这个事儿就能看出来,连马斯克这样的科技大佬,都对AI的“不确定性”充满顾虑,这也从侧面说明,AI和自动化不一样——自动化不用考虑“安全风险”,因为它永远在人类的控制范围内;但AI必须考虑,因为它的“思考能力”和“不确定性”,可能会带来人类没预料到的后果。
五、总结:别把AI和自动化混为一谈,搞懂区别才能更好地用它们
看到这儿,相信大家已经搞懂AI和自动化的区别了。咱们再总结一下,用三句话把核心点说透:
第一,自动化是“听话的执行者” :人类给它设定好固定流程,它就重复执行,没有自主思考能力,结果是确定的,不会带来风险,比如洗衣机、自动门、工厂机械臂。
第二,AI是“会思考的决策者” :它通过神经网络和机器学习模仿人类思考,能根据实际情况随机应变,结果是不确定的,可能比人类更聪明,但也可能带来风险,比如语音助手、AI导航、ChatGPT。
第三,马斯克和OpenAI分道扬镳,本质是对AI“不确定性”的态度不同 :马斯克想优先保证AI安全,避免风险;而OpenAI后来的发展,在他看来可能牺牲了部分安全,追求更快的发展和盈利。
搞懂这个区别,对咱们普通人也很有用。比如你买家电的时候,就知道“自动洗衣机”是自动化设备,不会有什么复杂功能,买的时候看它的固定程序好不好用就行;而“AI洗衣机”(比如能根据衣服材质自动调整洗涤模式的)是AI设备,虽然更智能,但你得了解它的决策逻辑,比如它是怎么判断衣服材质的,避免出现洗坏衣服的情况。
再比如你用AI工具的时候,比如AI写文案、AI做设计,别把AI的结果当成“绝对正确”的——因为AI的决策是不确定的,可能会出现错误或者偏见,你得自己再检查一遍,根据自己的需求调整。而用自动化工具,比如自动记账软件,你就不用太担心,因为它只会按你设定的规则记账,结果是固定的,不会出错。
最后咱们再回到开头的话题:“AI可能威胁人类,自动化不会”。这句话不是说AI一定会威胁人类,而是提醒我们,AI和自动化不一样,它有自己的“思考能力”,所以我们在发展和使用AI的时候,要多一份谨慎,比如给AI设定安全底线、让AI的决策过程更透明,这样才能让AI真正造福人类,而不是带来风险。
自动化就像咱们家里的“老黄牛”,默默干活,听话又安全;AI就像一个“聪明的年轻人”,能干很多复杂的活儿,但也需要我们好好引导,让它走在正确的路上。搞懂它们的区别,才能更好地利用它们,让它们成为我们生活和工作中的好帮手。