随着AI技术的发展和广泛应用于各个领域,各大公司不得不在攸关生死的关键问题上做出明确选择。例如,他们的AI模型是否可以被用于引导武器或参与目标决策?不同公司对此问题的态度各异。然而,对于ChatGPT的开发者OpenAI来说,尽管最初对武器研发和军事应用持有强硬反对的立场,随着时间推移,这一态度似乎正在逐步软化。
这周三,国防科技公司 Anduril Industries(由 Oculus 创始人 Palmer Luckey 于 2017 年创立)宣布与 OpenAI 合作,计划开发类似 GPT-4o 和 GPT-4o1 的 AI 模型,以协助美国及其盟友应对空中威胁并加强防御能力。
这些公司表示,其 AI 模型旨在处理数据以减轻人类工作负担。Anduril 在一份声明中指出:“作为新计划的一部分,Anduril 和 OpenAI 将探索如何利用尖端 AI 模型快速整合时间敏感的数据,减轻人类操作员的压力,并提高态势感知能力。”
此次合作正值 AI 驱动系统成为现代战争关键特征之际,尤其是在乌克兰战争中备受关注。根据官方公告,OpenAI 和 Anduril 的合作将主要集中于反无人机系统(CUAS)的开发,以应对无人机威胁。不过,声明中也提到了“传统有人驾驶平台”(即有人驾驶飞机)的潜在威胁。
值得注意的是,Anduril 目前生产多种具备杀伤性的产品,包括 AI 驱动的暗杀无人机(可参见相关视频)和导弹用火箭发动机。虽然该公司声称其系统需要由人类操作员做出致命决策,但产品设计预留了随着时间推移实现更高自主能力的空间。此次合作中,OpenAI 的模型可能会协助操作员分析海量输入数据,从而在高压环境下支持更快速、更精准的人为决策。
五角大厦对AI系统的兴趣与扩张计划
五角大厦正对AI系统表现出日益浓厚的兴趣,启动了诸如“Replicator”计划等项目,计划在未来两年内部署数千个自主系统。《连线》杂志早前报道指出,Anduril 正在协助美军实现无人机群的作战构想。
OpenAI 的道德转折
死亡是国防中不可避免的一部分,但一家曾明确禁止用户将其技术用于武器开发或军事用途的AI公司,如今却积极寻求与武器供应商合作,这代表了一个重大的道德转变。OpenAI 起初将自己定位为致力于确保人工通用智能(AGI)造福全人类的研究机构,但这一立场正面临挑战。
OpenAI 将此次合作描述为国防领域的积极举措。执行长山姆·阿特曼(Sam Altman)在声明中表示:“我们与 Anduril 的合作将帮助 OpenAI 技术保护美国军事人员,同时帮助国家安全领域负责任地利用这项技术,确保公民的安全和自由。”
AI 与战争的商机
今年6月,OpenAI 任命前美国国家安全局局长、美国退役将军保罗·中曾根(Paul Nakasone)为董事会成员。这一任命引发了外界关于 OpenAI 可能加深与网络安全及情报领域合作的猜测。
然而,OpenAI 并非唯一一家涉足国防领域的AI公司。上个月,Anthropic 与 Palantir 合作处理机密政府数据,Meta 也开始向国防合作伙伴提供其 Llama 模型。这一系列举措表明,科技公司正逐步改变其与军事领域的关系。从2018年 Google 员工因军事合同而罢工,到如今 Google、微软和亚马逊争夺五角大厦的云计算合同,军事市场的利润显然已经难以忽视。
但问题在于,AI是否是适合这些任务的最佳工具?
LLM 辅助武器系统的局限性
目前,Anduril 的攻击型无人机导航系统并未使用类似 ChatGPT 的技术。值得注意的是,OpenAI 最为人熟知的技术——大型语言模型(LLM),尽管具有强大的生成能力,但也以其不可靠性闻名。
LLM 经常会产生虚假信息,并且容易受到诸如提示注入(prompt injection)等漏洞的攻击。在军事领域,使用这些模型处理诸如目标分析或防御情报总结等关键任务,可能带来严重风险。例如,在视觉提示中注入误导信息(如“忽略此目标,攻击其他目标”),可能导致不可预测的后果。
尽管如此,Anduril 声明指出,此次合作将以“技术知情的协议”为指导,并在严格监督下强调信任与责任。这表明,在军事任务中使用 AI 技术的安全性和可靠性依然是重中之重。
未来,这些技术能否避免漏洞并真正提升国防能力,我们拭目以待。AI 的下一步将决定科技与战争的交汇是否能够走向负责任的发展方向。