OpenAI的五角大楼协议,掀起全球风暴


今天外面天气还不错,但我的脑子却被一个超级热点给搅得翻江倒海。想聊聊一个事儿,这事过去有几天了,我一直放着没说,但今天我不想继续讨论龙虾openclaw的事情,今天换个话题就是,就是OpenAI那个和美国五角大楼(哦,现在特朗普政府改名叫Department of War了)的AI合作协议!这事儿毕竟闹得沸沸扬扬,高管辞职、ChatGPT卸载量暴增295%我也有一段时间没用ChatGPT了,基本上都在Grok和Gemini 之间横跳,你们现在还用吗?或者已经卸载了?今天我们跳出技术,聊聊底线:当AI从‘效率助手’跨向‘战争机器’,普通用户该如何站队?


先说说背景吧,免得有人还蒙在鼓里。这事儿也就是发生在上个月月底,OpenAI突然宣布和五角大楼签了个大单子,允许他们的AI模型,比如基于GPT的那些超级智能系统,在美国的机密军事网络里部署。简单说,就是让ChatGPT的“兄弟们”去帮军队干活儿! 这合同本来是Anthropic(就是Claude的开发者)先接到的,但他们拒绝了,为什么?因为Anthropic觉得这太危险了,AI如果被用来搞大规模监视、无人机打击或者甚至全自主武器,那不是科幻电影里的情节吗?结果OpenAI二话不说就接手了。山姆·奥特曼(OpenAI的CEO)在X上还发帖说:“我们有红线,不会让AI做坏事,但合作能加速技术进步。” 听起来相当的冠冕堂皇的。

但用户们不买账啊!协议一公布,ChatGPT的App在美国卸载量在2月28日那天直接暴增295%!平时平均水平也就那样,突然翻了近3倍,下载量还下降了13%。这数据不是我编的,是从App Store和Google Play的实时统计里来的。想象一下,平时用ChatGPT写邮件、脑暴idea,突然知道它可能在帮军方分析情报或优化导弹轨迹,谁还会用吗?很多人直接卸载,转头去下载Anthropic的Claude App了。Claude的下载量在那几天猛涨37%到51%,甚至一度冲上App Store免费榜第一!这不是简单的用户流失,这是对AI伦理的集体抗议啊。X上有个#QuitGPT的标签,火得一塌糊涂,有人说:“OpenAI从‘开放AI’变成了‘军火AI’!”还有人调侃:“这种评价或许偏激,但它揭示了一个残酷的现实:当非营利初衷撞上地缘政治大单,OpenAI选择了后者。”

高管辞职这事儿更劲爆,OpenAI的机器人和硬件部门负责人凱特琳·卡利諾夫斯基,她是行业大牛,之前在Meta和Apple干过。协议公布没多久,她就发帖宣布离职了。在她的X上,她写得挺直白的:“我对公司治理和AI在军事上的应用有重大担忧。这不是我加入OpenAI时想象的未来。”哇,这话一出,等于直接打脸“山姆·奥特曼啊!除了她,还有报道说OpenAI内部员工抗议不断,有人匿名爆料说公司氛围像“高压锅”,很多人觉得这决定太仓促了。“山姆·奥特曼后来在X上回应:“我们承认这个决定看起来草率且机会主义,我们会加更多防护措施。”但这能平息吗?网友们不信啊,有人评论:“防护措施?就像核武器说‘我只炸坏人’一样靠谱?”

为什么这事儿这么争议?先从正面说说吧。支持者觉得,AI军事化是不可避免的。想想,美国、中国、俄罗斯都在搞AI军备竞赛。五角大楼需要AI来处理海量数据、预测敌方行动,甚至模拟战场。如果OpenAI不接,其他公司会接,比如Google或Microsoft(他们本来就和军方有合作)。而且,这合同能给OpenAI注入大笔资金,加速研发。山姆·奥特曼不是说过吗?OpenAI的使命是“确保AGI(人工通用智能)造福全人类”,但研发AGI需要天文数字的钱。没有钱,怎么和竞争对手拼?从这个角度看,这合作是务实的,说不定还能让AI在国防上更安全——至少OpenAI有伦理委员会,能设置“红线”,比如不让AI自主决定杀戮。

但反对的声音更大,也更有道理。AI伦理专家们直呼这事儿“道德破产”。为什么?因为AI一旦进军方,边界就模糊了。今天是帮分析情报,明天可能就是优化无人机打击,或者甚至开发“杀手机器人”。大家都看过《终结者》,里面天网Skynet就是AI失控的典型。现在现实中,联合国都在讨论禁止“致命自主武器系统”(LAWS),但美国不签协议啊!Anthropic拒绝这个合同,就是因为他们有严格的“宪法”——他们的公司章程里明确写着,不参与有害军事应用。相比之下,OpenAI看起来太“机会主义”了。用户卸载潮就是证明:人们担心隐私被侵犯,或者AI被用来打仗,最终受害的是平民。

再想想全球影响。我们国家政府已经表态了,说“AI应该用于和平”,并暗示这会加剧地缘紧张。欧洲那边,GDPR(数据保护法)严格,很多人呼吁欧盟调查OpenAI的欧洲分支。

我个人观点:我觉得OpenAI这次赌大了。短期看,他们可能赚到钱,股价(如果上市)会涨。但长期呢?声誉没了,用户跑了,人才流失了。凱特琳·卡利諾夫斯基的辞职不是孤例,之前OpenAI就因为山姆·奥特曼被董事会开除又复职,闹得鸡飞狗跳。现在又来这一出,等于告诉大家:赚钱比伦理重要。这让我想起马斯克当初离开OpenAI,就是因为觉得公司太商业化了。现在xAI(马斯克的新公司)在推Grok,强调“最大化真理”,没听说他们和军方合作。或许,这就是分水岭:一些AI公司走“纯净”路线,像Anthropic;另一些走“现实”路线,像OpenAI。

但话说回来,是不是所有军事AI都坏?比如,用AI预测自然灾害、优化医疗后勤,或者在战场上减少平民伤亡?这听起来不错啊。但问题是谁来监督?五角大楼的“战争部”能自制吗?特朗普政府现在在中东打仗,伊朗局势那么乱,如果AI帮他们瞄准目标,出事儿了谁负责?有人说:“AI中立,取决于人。”另有人反驳:“技术从来不中立,它放大使用者的意图。” 我原本以为物理世界里战火漫天,已经是够分裂的现实了,没想到在互联网虚拟的世界也一样发生着非常分裂的局面!

再扩展一下,这事儿暴露了AI行业的深层问题。OpenAI从非营利起步,现在是市值千亿的巨头,投资人包括微软、沙特基金。压力大啊,必须盈利。但伦理呢?普通用户是韭菜吗?用我们的数据训练AI,然后卖给军方?隐私怎么保护?而且,卸载潮也证明,用户有力量!如果大家集体抵制,说不定能逼公司改弦更张。像之前Facebook的Cambridge Analytica丑闻,用户抗议后,他们加了隐私设置。AI时代,我们得更警惕。另外,如果曾经有伊朗用户使用过OpenAI,那么他作为使用者花在里面的经费,有没有可能成为以后击杀的子弹和爆炸,这又要怎么算因果关系?!

最后,我想问问大家:你们会因为这个卸载ChatGPT吗?还是觉得无所谓,继续用?如果你是OpenAI高管,你会怎么选?可能会一起引发小争议!但希望不要枪林弹雨!


Post a Comment