
一场发生在中东地区的夜间空袭,几天后依然是全球地缘政治观察家热议的焦点。与以往任何一次军事行动不同线上配资知识网,这次被外界关注的不仅仅是火光冲天的目标废墟,更是一个隐藏在背后的、几乎看不见的“指挥官”——人工智能。
在此次行动中,美军及以军首次将商业AI大模型深度接入作战链条。从情报分析、目标识别,到打击路径规划,甚至对攻击时间做出高精度预测,AI系统几乎参与了“观察-判断-决策-行动”的全过程。
这不再是一场传统意义上的空中打击,它更像是一次面向未来的“技术路演”。战争,正在被一行行代码重新定义。
01 事件:算法进入杀伤链2月底,美以联军对伊朗境内目标实施了精确打击。随后,一个关键细节被披露:美国人工智能公司Anthropic开发的大模型Claude在此次行动中被用于支持关键作战场景,包括情报评估、目标识别和战斗模拟。
更具戏剧性的是,就在空袭发生前几个小时,美国政府刚因伦理分歧宣布封杀Anthropic,要求联邦机构在六个月内停用Claude。然而,国防部官员不得不承认,由于该系统已深度嵌入机密网络、短期内无法替代,仍需在过渡期内继续使用。
展开剩余85%这一矛盾本身揭示了一个尴尬的现实:当伦理辩论还在进行时,技术已经完成了实战部署。
事实上,AI介入军事决策并非从今天开始。早在两年前,Palantir就曾公开展示其人工智能平台AIP在战场辅助决策中的能力——从收到模糊警报、调度无人机侦察,到综合多维度数据生成行动方案,整个过程被压缩至几分钟。而在更早的演习中,美国陆军的Maven智能系统已能将目标识别与打击的时间从12小时以上缩短到1分钟以内。
但这次的不同之处在于:商业级大模型首次被接入最高机密级军事网络,处理最敏感的战场数据,并直接服务于实战任务。
02 解析:战争逻辑的“底层重构”如果仅仅把AI看作一种更先进的作战工具,可能低估了正在发生的变化。真正值得关注的,是战争底层逻辑的迁移。
第一个变化:决策权的转移。
传统战争依赖“OODA环”(观察-调整-决策-行动),比拼的是谁能在更短的时间内完成这个循环。而在AI深度介入的情况下,这个“环”正在被“端到端推理”取代。数千个传感器、截获的通信信号、卫星图像、开源情报像洪水一样涌入模型,而模型输出的不再是建议,而是经过计算的行动方案。
有军事专家指出,人类指挥官手中依然握有最终的“开火权”,但当AI在几分钟内完成了态势感知、目标识别、路径规划、效果评估,这个“最终决定”还剩多少实质意义,是一个需要正视的问题。人类正在从“决策者”退向“审批员”。
第二个变化:硬件的“插件化”。
过去衡量军事实力,看的是航母数量、战机代际、导弹库存。而在AI主导的战场上,硬件正在变成可以随时调用的“外设”——就像计算机可以即插即用的U盘。
在这次行动中,一个值得注意的细节是:以色列国防军使用了一批看似并不先进的自杀式无人机,但这些无人机在空中展现出了极高的协同智能——有的负责诱敌,有的负责中继通信,有的负责俯冲打击。背后的逻辑是,AI系统在实时重写这些机器的任务代码。
这意味着,只要算法足够强大,廉价平台也能打出高端装备的战术效果。反之,如果没有算法支撑,再先进的平台也可能沦为“昂贵的摆设”。
第三个变化:对抗从“火力”转向“算力”。
传统的电子战靠功率压制,这次出现的是一种新型攻击方式——逻辑过载。通过向对方防空系统注入海量“看起来真实”的虚假目标,让其AI模型陷入无限递归、计算资源耗尽,最终导致系统瘫痪。
这不是物理层面的摧毁,而是算法层面的催眠。战争的门槛正在从“谁有更多的钢铁”转向“谁有更强的算力”。
03 影响:军工产业的“估值逻辑”正在被重写技术路线的变化,最终会传导到产业层面。
过去一个世纪,美国军工复合体的核心是洛克希德·马丁、波音、雷神这类传统巨头。它们的商业模式清晰而稳定:按成本加价,卖硬件。项目越复杂、周期越长、预算越高,利润越丰厚。这是一个以重资产制造为核心、以长期合同为基础的工业体系。
但新一代AI军工公司的玩法完全不同。
以Anduril Industries为例,这家由Oculus创始人帕尔默·拉奇创办的公司,估值已超过600亿美元。它的核心产品Lattice OS是一个AI驱动的战场操作系统,整合无人机、传感器、雷达数据,自动识别威胁并推荐应对方案。它卖的不是平台,而是“软件定义战场”的能力。
另一家代表性公司Shield AI,由前海豹突击队成员创立,核心产品Hivemind能让无人机在没有GPS、没有通信链路的对抗环境中自主飞行。2025年,搭载Hivemind的X-62A在空战演习中击败了有人驾驶的F-16。
这些公司的共同特征是:收入形态正在从“一次性硬件交付”转向“平台订阅+集成运维+持续升级”的长期合约结构。市场对它们的定价框架,也正在从传统军工的“合同制造逻辑”向科技公司的“平台与增长逻辑”靠拢。
数据可以说明问题:Palantir 2025财年营收同比增长56%,净利润同比增长超过250%,动态市盈率超过200倍。这在传统军工领域是不可想象的。
与此同时,资本正在快速涌入这个赛道。据市场数据显示,2025年国防技术领域的风险投资交易额飙升至491亿美元,较前一年的272亿美元几乎翻倍。2026财年,五角大楼首次为AI和自主系统设立独立预算线——134亿美元,这是美国国防史上最大的单年度AI投资。
04 趋势:算力成为新的战略资源如果战争的底层逻辑从“火力密度”转向“算法密度”,那么支撑算法的算力,就必然成为新的战略资源。
这不是比喻。在此次中东行动中,美以联军之所以能维持压制性优势,一个重要原因是他们的国防AI直接运行在全球最先进的超大规模计算集群上。每一次轨迹预测、每一轮干扰信号生成、每一个虚假目标的构造,都在消耗昂贵的算力。
这意味着,贫穷的国家可能正在失去战争的参与权。如果没有吉瓦级的能源供应,没有最顶尖的推理卡阵列,在算法战争面前,可能连成为对手的资格都没有。
更值得留意的是,这种算力霸权正在向私人巨头集中。当SpaceX与xAI合并、试图构建天基算力主权时,基础设施权力以前所未有的速度向私营公司转移。未来战争的关键节点,可能不在地缘政治要冲,而在那些拥有超大规模集群的科技公司总部。
还有一个不易察觉但意义深远的变化:太空正在成为AI赋能的下一个战场。NASA最近的测试表明,部分商业级AI加速器在辐射环境中表现出足够的可靠性,能够支持卫星和航天器的实时自主决策。这意味着,未来的天基系统可能不再依赖地面指令,而是具备“在轨思考”的能力。当卫星可以自主识别目标、调整轨道、甚至协同作战时,太空军事化的门槛也将大幅降低。
05 博弈:伦理红线与国家安全技术狂奔的同时,伦理的刹车在哪里?
Anthropic与五角大楼的冲突,恰恰暴露了这一困境。这家由OpenAI前员工创立的公司,一直将“安全”和“伦理”作为核心价值观,在其使用条款中明确禁止将技术用于暴力行为、武器开发或大规模监控。但当五角大楼要求“无限制使用”、并援引《国防生产法》施压时,这家公司最终被迫调整立场。
类似的场景也在其他科技巨头内部上演。OpenAI和谷歌的员工近期签署公开信,要求公司拒绝将AI用于军事目的。但当政府合同摆在眼前、竞争对手愿意让步时,商业公司的“伦理底线”能守多久,是一个没有答案的问题。
更深层的担忧来自技术本身的不确定性。在伦敦国王学院的一项兵棋推演实验中,多款主流大语言模型在模拟危机中迅速倾向于发射核弹头。当AI系统的决策逻辑呈现“黑箱化”特征、人类无法完全解释其工作原理时,一旦发生误判或误击,责任应该由谁承担——开发者?操作者?还是算法本身?
联合国秘书长古特雷斯的一句话或许代表了很多人的态度:“生与死的决定,不应该委托给冰冷的算法。”
当代码开始决定谁在瞄准镜里,当算力成为衡量国力的新标尺,我们面对的不仅是一场军事革命,更是一场关于权力边界的重新定义。
2月28日的空袭终将过去线上配资知识网,但它留下的那个问题不会消失:当人类把战争的底牌交给算法,我们还能守住那条最后的底线吗?
发布于:福建省启恒配资提示:文章来自网络,不代表本站观点。