“人工智能+”的风险管控与伦理规范

但透明度又很重要,不然大家就会不信任AI。所以现在很多国家都在要求AI企业“打开黑箱”,比如贷款AI得告诉用户拒绝贷款的具体原因,推荐AI得让用户知道推荐逻辑,司法AI得说明判断依据。虽然很难完全做到,但至少得往这个方向努力。

2.3 社会责任:AI不能只“赚钱”,还得“担责任”

最后是“社会责任”,简单说就是AI企业不能只想着用AI赚钱,还得考虑AI对社会的影响,比如AI会不会危害隐私、会不会破坏环境、会不会影响社会稳定。

先说说隐私问题,这是大家最关心的。现在很多AI产品都要收集用户数据,比如人脸识别需要收集人脸信息,智能手表需要收集健康数据,AI推荐需要收集浏览记录。如果企业把这些数据随便存着、或者卖给其他公司,用户的隐私就会被泄露。比如有人用AI摄像头偷偷拍别人的人脸,然后做成“人脸库”卖给诈骗分子;有人把用户的健康数据卖给保险公司,保险公司就会拒绝给身体不好的人投保——这些都是AI企业没尽到社会责任,只想着赚钱,不管用户的隐私安全。

再说说环境问题,AI其实是“耗电大户”。训练一个大模型,比如GPT-3,需要用到很多服务器,这些服务器24小时运转,消耗的电量相当于几百户家庭一年的用电量,还会排放大量二氧化碳,污染环境。如果AI企业只想着把模型做得更大、更厉害,不考虑节能减排,就会给环境带来很大压力——这也是社会责任的一部分,AI发展不能以破坏环境为代价。

这章没有结束,请点击下一页继续阅读!

还有社会稳定问题,比如AI能生成“深度伪造”内容,就是用AI做假视频、假音频,比如把某个人的脸换到另一个人身上,制作出“假新闻”“假绯闻”。如果有人用这个技术造谣、诽谤,比如伪造某个明星的负面视频,或者伪造某个官员的不当言论,很容易引发社会恐慌、破坏社会信任——这时候AI企业就得担起责任,比如开发识别“深度伪造”的技术,阻止假内容传播,而不是放任不管。

所以AI不是“法外之地”,企业用AI赚钱的同时,必须承担起社会责任,比如保护用户隐私、节能减排、阻止AI被用来做坏事。如果企业只讲利益、不讲责任,AI早晚都会被大家反感、抵制。

三、全球伦理治理:各国对AI的“规矩”不一样,得慢慢商量着来

“人工智能+”是全球性的技术,比如你用的AI软件可能是美国公司开发的,你买的AI设备可能是日本生产的,你刷的AI视频可能是印度网友上传的。但不同国家的文化、法律、社会情况不一样,对AI的“规矩”也不一样——比如有的国家允许用AI做自动驾驶,有的国家不允许;有的国家严格限制AI收集人脸信息,有的国家则比较宽松。这就需要各国一起商量,搞“全球伦理治理”,既要尊重各国的差异,又要达成一些共同的“底线”,不然AI在全球范围内用起来就会乱套。这部分主要说两个点:国际共识和区域监管政策的差异。

3.1 国际共识:各国都同意的“AI规矩”,比如不能用AI杀人

虽然各国对AI的监管不一样,但在一些关键问题上,大家还是能达成共识的——简单说就是“有些事AI绝对不能做”,不管哪个国家都得遵守。

最典型的就是“AI不能用于军事危害人类”。比如不能开发“自主杀人机器人”——就是不需要人类控制,自己就能识别目标、开枪杀人的机器人。如果这种AI被用于战争,后果不堪设想,可能会造成大量无辜平民死亡,甚至引发世界大战。所以现在联合国和很多国家都在呼吁“禁止开发自主杀人机器人”,这就是一个重要的国际共识。

再比如“AI不能歧视人类”。不管是哪个国家,都不能用AI搞种族歧视、性别歧视、宗教歧视。比如不能开发“只服务于白人”的AI,不能开发“歧视女性就业”的AI,这也是各国都认可的共识。因为歧视会引发社会矛盾,不管在哪个国家,都不利于社会稳定。

还有“AI要保护用户隐私”。虽然各国对隐私保护的严格程度不一样,但都同意“AI不能随便收集、泄露用户隐私”。比如不能用AI偷偷拍别人的隐私视频,不能把用户的身份证号、银行卡号随便卖给别人,这也是一个基本共识。因为隐私是人类的基本权利,不管在哪个国家,大家都不希望自己的隐私被泄露。

另外,“AI要保证安全可靠”也是一个共识。不管是用AI开车、用AI做手术,还是用AI处理金融业务,都得保证AI不会出故障、不会出错,不然会给人类带来损失。比如自动驾驶汽车必须经过严格的安全测试才能上路,AI手术机器人必须有备用系统,防止突然出故障——这些都是各国都认可的安全底线。

这些国际共识就像“全球通用的AI交通规则”,不管你是哪个国家的AI产品,都得遵守这些规则,不然就会被全世界抵制。现在联合国、欧盟、美国、中国等都在积极参与国际共识的制定,就是为了让AI在全球范围内安全、有序地发展。

3.2 区域监管政策的差异:有的国家管得严,有的国家管得松,各有各的考虑

虽然有国际共识,但不同区域、不同国家的AI监管政策还是有很大差异——这不是因为有的国家“不讲理”,而是因为各国的情况不一样,比如文化传统、法律体系、技术发展水平都不同,所以对AI的监管重点也不一样。咱们主要说说几个有代表性的区域:欧盟、美国、中国,看看它们的监管政策有啥不一样。

3.2.1 欧盟:管得最严,把“伦理”放在第一位

欧盟对AI的监管是出了名的严格,核心思路是“先定规矩,再让AI发展”,尤其看重AI的伦理和安全。2024年欧盟出台了《人工智能法案》,这是全球第一个全面的AI监管法律,里面把AI分成了“四个风险等级”,不同等级的AI管得不一样:

- 最高风险的AI:直接禁止,比如“自主杀人机器人”“用AI操纵人的行为”(比如用AI搞政治洗脑)“用AI歧视特定人群”(比如用AI筛选租客时歧视外国人),这些AI不管有多厉害,都不能在欧盟用。

- 高风险的AI:必须经过严格审核才能用,比如AI医疗设备(比如AI手术机器人)、AI教育软件(比如给学生打分的AI)、AI招聘系统、自动驾驶汽车。这些AI在上市前,必须证明自己“安全、公平、透明”,还要有专门的机构审核,审核通过了才能用。

小主,

- 中风险的AI:需要披露信息,比如AI推荐系统(比如视频APP的推荐AI)、AI聊天机器人(比如ChatGPT)。这些AI不需要审核,但必须告诉用户“我是AI”,还要说明推荐逻辑、生成内容的依据,不能让用户误以为是人类做的。

- 低风险的AI:基本不管,比如手机里的智能闹钟、智能计算器,这些AI对人类没什么危害,所以欧盟不怎么管。

欧盟为啥管这么严?因为欧盟特别看重“人权”和“社会公平”,担心AI会侵犯人权(比如隐私、平等权),破坏社会公平。比如之前有欧盟国家发现,有些AI招聘系统歧视女性,所以欧盟就规定AI招聘系统必须经过公平性审核才能用。虽然严,但能最大程度保护用户的权益,不过也有一些AI企业觉得“太麻烦”,不愿意在欧盟开展业务——这就是严监管的两面性。

3.2.2 美国:管得“灵活”,既想保护创新,又想控制风险

美国对AI的监管和欧盟不一样,核心思路是“先让AI发展起来,再根据问题定规矩”,既不想因为监管太严耽误AI创新(毕竟美国有很多大AI公司,比如谷歌、微软、OpenAI),又不想让AI出大问题。