AI算法在审判战争,而法律还在沉睡——老哈的故事
从2026年美伊“算法之夜”的空袭战场,我们看到的不仅是AI武器化的致命威胁,更暴露了数字时代网络安全的核心困局。当网络攻击与物理打击深度绑定,当AI成为网络情报战的核心引擎,现有网络安全体系、防护逻辑乃至法律规制,都已难以应对这场全域混合战的冲击。这场战争,给全球网络安全行业敲响了警钟,网络安全早已不是单纯的技术防御,而是关乎国家主权、民生安全、战争伦理的核心议题。
一、那个被算法标记的清晨
2026年2月28日,德黑兰时间凌晨4点17分。
哈桑·阿米里,我们姑且叫他老哈,他是伊朗伊斯兰革命卫队某雷达站的操作员。这个岗位他已经干了十一年,足够让他记住每一种预警机的呼号,足够让他在半梦半醒间分辨出友军信号与入侵者的区别。
但那个清晨,他的屏幕没有预警。
不是敌机来袭的红色闪烁,而是一片寂静的雪花。像是老式电视机被拔掉了天线,像是有人在他和整个世界之间,轻轻按下了静音键。
三十七分钟后,第一枚钻地弹穿透了三十米厚的加固混凝土。老哈没有听到爆炸声——电子战系统已经提前烧毁了他的耳膜。
上述虚拟的剧本不是危言耸听,而是在战争时期,各国都可能会随时面临的危机场景。
2026年2月28日,美国和以色列对伊朗发动的联合军事行动,代号分别是“史诗怒火”和“狮吼行动”。官方说法是“先发制人的自卫打击”,但我们给他赋予了另一个名字:算法之夜。
这一夜,AI算法取代了人类的判断,悄悄执掌了战争的审判权,而本该约束暴力的法律,却陷入了沉睡。
二、当 AI 编织战争情报网,人类只剩按下确认键
据报道,美军对伊朗的空袭使用了美国科技企业Anthropic研发的大模型Claude。美军使用这款模型进行了情报评估、目标识别和模拟战斗场景。
然而,在打击行动开始前几个小时,美国总统特朗普在社交媒体上发文,下令所有联邦机构立即停止使用Anthropic公司的技术产品。其原因是,美军在今年1月突袭委内瑞拉总统尼古拉斯·马杜罗的行动中使用了Claude系统。Anthropic公司对此提出异议,指出其使用条款不允许将Claude用于暴力目的、武器研发或监控。
此外,美军还使用Palantir高强度听取波斯语通话片段、卫星照片和无线频率等杂乱的信号来形成判断。Palantir的分析能力据称相当于数百位情报人员。这意味着,当老哈在雷达站里给妻子打电话说"今晚可能加班",千里之外的某个服务器集群已经把他的声纹、位置、社交关系图谱,打包成了一份“高价值目标候选”的JSON文件。
在此,我们必须先厘清一个看似关键的边界:AI最终有没有亲手按下发射按钮?
而这真的是问题的关键吗?
他们的说辞是,AI负责从海量信息中锁定目标、推演方案,人类负责最终的决策确认,而后导弹才会奔赴既定的坐标,将目标化作废墟。
听起来,这是技术为战争设置的最后一道人道防线,对吧?
可真实的战场逻辑,早已被技术的速度和效率彻底改写。假如:当AI系统能在几秒内整合卫星图像、无人机实时视频、地面通信信号、甚至日常的手机通话与社交轨迹,生成15套完备的作战方案。当它能同时解析上千段波斯语通话、识别数百张卫星照片,其情报处理效率堪比数百名专业情报分析师,人类操作员的决策空间,早已被压缩到极致。
屏幕上冰冷的一行字:“建议打击,置信度94.7%”,这不是简单的参考,而是带着技术权威的强力引导。
试想,一个凌晨四点被紧急警报惊醒的军官,面对AI用数亿条数据推演而出的 “高置信度” 结论,又有多少勇气去点击 “拒绝”?又有多少能力,在短时间内去验证这份结论的真伪?
值得一提的是,有媒体援引美军第18空降军(首家使用AI辅助作战的美国部队)的一名高级军官估计,在人类分析员准确率为84%的情况下,Project Maven系统的准确率约为60%,有时甚至会将卡车误认为树木,在雪天等复杂条件下,对防空火炮等目标的识别准确率可能低于30%。当AI的愚蠢被技术权威掩盖,这场由算法主导的审判,注定充满致命误判。
这就是2026年的战争:你的母语,是敌人的开源情报。你的日常移动轨迹,是算法预测的输入参数。而你的生死,取决于一个中校在面对“极高匹配度”建议时,敢不敢点那个红色按钮。
三、1秒的生死线,AI如何杀死战争的幻想
现在,让我们进入这场战争最冷酷的技术细节——关于导弹发射器的死亡倒计时。
在这场战争中,伊朗不是傻子。他们的移动式导弹发射车设计初衷就是“打了就跑”——发射完弹道导弹立即转移阵地,让敌人的反击找不到目标。这是冷战时期就成熟的生存哲学:隐蔽、机动、快速撤离。
但在2026年,这套哲学被AI宣告破产。
让我们还原一个现代科技完全可以实现的战场场景:
某隐蔽阵地,伊朗某型中程导弹发射车。操作员完成瞄准,按下发射按钮。导弹离架,尾焰照亮夜空——这是人类能感知的时间尺度,大约3秒。
但在导弹离架的1秒后,事情开始向地狱滑落:
第100毫秒,低轨道侦察卫星(LEO)的热成像传感器捕捉到尾焰特征。这种卫星离地仅数百公里,分辨率足以看清你靠在墙边点燃香烟时打火机的品牌。它们的设计寿命可能只有几个月,燃料耗尽就会坠毁,但几个月足以完成一系列军事任务。
第300毫秒,AI图像识别系统完成匹配:“确认,发射事件,坐标XXX.XXX, XXX.XXX,型号疑似XXX。”
第600毫秒,AI完成三维空间分析:发射车当前位置、周边地形、可通行道路、历史移动模式预测。它计算出摧毁该目标的最优武器选择。
第1000毫秒,作战指令生成完毕,发送至最近的火力单元。人类操作员看到的不是“是否打击”的选择题,而是“确认执行已优化方案”的倒计时。
从导弹发射到被反制锁定,1秒。
你或许会想:那赶紧跑啊!发射车不是有轮子吗?
AI早一步封死了这个幻想。
战争爆发前数小时,甚至数天,这些低轨道卫星已经以15分钟一圈的频率扫描伊朗全境。每一辆发射车的停放位置、维护痕迹、甚至轮胎气压造成的车身倾斜,都被录入动态数据库。当发射车启动引擎的那一刻,AI已经预测了它所有可能的撤离路线,基于地形坡度、道路承重、历史演习数据、甚至驾驶员的惯常选择。
更致命的是现代导弹的制导系统。它们不再是二战时期那种设定坐标与直线飞行的笨家伙。2026年有精确制导弹药支持,说人话就是:导弹可以在飞行途中接收新坐标,可以识别移动目标的红外/雷达特征,可以规划绕过防空阵地的迂回航线。
你的发射车开到哪,它的眼睛就跟到哪。
这意味着什么?意味着“发射后生存窗口”从冷战时期的30分钟,被压缩到了敌方导弹的飞行时间——可能是5分钟,可能是90秒,这取决于发射距离。
操作员们学到的最后一个教训是:当你看到导弹尾焰时,你的死亡已经倒计时了。不是比喻,是字面意义上的1秒后。
四、断网,是比炸弹更古老的围城术
但故事还有另一面。
袭击发生后几小时内,伊朗互联网连通率暴跌至1-4%。
这不是“有点卡”,是几乎彻底消失。德黑兰的网民们发现,他们无法刷新Instagram,无法发送WhatsApp,无法查看是否还有地铁在运行。
这是数字时代的围城术。中世纪的将军们会切断水源,2026年的将军们会切断DNS。
问题在于,这种打击是无差别的。当AWS中东数据中心在空袭中受损,当骨干网节点被精确制导武器物理卸载,受影响的不仅是革命卫队的指挥系统,还有医院的电子病历、银行的交易记录、普通家庭的取暖控制系统。
网络安全专家们早就警告过这种“网络-物理”(Cyber-Kinetic)混合战的风险。这种将网络攻击与物理打击深度融合的战争形态,正在模糊数字与现实的边界。但当它真的发生时,所有人还是显得措手不及,包括那些设计这些系统的工程师们,他们设计了一个能抵御DDoS攻击的分布式架构,却没想过敌人会开着轰炸机来拆服务器。
接下来的是反击,黑客们的狂欢与尴尬。网络空间的报复来得比预期更快,也更廉价。
袭击后24小时内,亲伊朗黑客组织宣布了149次DDoS攻击,目标覆盖16个国家的110个组织。
这些攻击有个共同特点:声音很大,伤害很小。
DDoS就像是网络世界的放鞭炮,巨响,烟雾,但除非你真的站在正下方,否则顶多被吓一跳。更专业的黑客组织,如Handala Hack和Cyber Toufan,声称入侵了敏感系统并泄露了数据,但多数无法被独立验证。
不过,真正的威胁在暗处。加拿大网络安全中心在袭击当天就发布警告:伊朗国家支持的APT组织可能转向关键基础设施:电网、水厂、石化设施。英国国家网络安全中心(NCSC)同步升级了威胁等级,承认存在可信的溢出风险。但诡异的是,这些高级威胁并未大规模出现。
为什么?答案藏应该在那个1-4%的连通率里。当伊朗本国的互联网被物理切断,其国家级的网络战部队,发现自己也被困在了数字围城之内。
五、AI的愚蠢,比它的聪明更可怕
上述内容说的是当AI真正的介入到国家战争时,网络空间与现实空间会处于怎样的恐怖处境。
现在,让我们谈谈那个房间里的大象。
真正的问题在于,这些AI系统的工作方式是不透明的。
那个在1秒内完成“发现-锁定-决策-指派”的AI,它的置信度阈值是谁设定的?如果因为热信号相似,因为角度巧合,AI将一辆民用油罐车误判为导弹发射车,谁来为这场误杀负责?
2026年3月,没人能回答这个问题。因为现代AI系统的可解释性危机,在战场上被放大了十倍。当一个中校因为相信算法的判断而按下发射键,事后发现那其实是一辆载有平民的油罐车,军事法庭还没有准备好审判的一段代码。
六、结语:老哈们与我们的共同未来
让我们回到德黑兰郊外的那个雷达站。
老哈没有活下来。他的死亡被记录为“作战人员伤亡”,但在某个AI的数据库里,他可能只是一个被标记为“已清除”的节点,一个让算法置信度从94.7%提升到97.2%的样本。
而在几百公里外的某处导弹阵地,另一组操作员可能经历了更残酷的死亡,他们成功发射了导弹,却在1秒后发现自己的发射车已被锁定。他们或许尝试了机动撤离,但低轨卫星的凝视从未中断,直到某枚从不可见方向袭来的精确制导弹药,将他们的移动掩体变成一团火球。
他们的故事不会出现在任何AI系统的训练数据里。因为死人不会生成数据。
但活着的人会。我们这些在2026年3月阅读这篇文章的人,我们的点击、我们的位置、我们的社交网络,都在被某种算法持续评估。不是为了杀死我们(还不需要),而是为了预测我们、影响我们、最终定义我们可接受的行为边界。
从战场的雷达站到你的智能手机,只有一步之遥。
2026年2月28日的空袭提醒我们:当AI被武器化,它不仅仅是更快、更准的杀人工具。它是一种新型的权力结构,一种让决策变得不可追溯、让责任变得分散、让暴力变得去人格化的技术架构。当AI被武器化,它从来不止是更快、更准的杀人工具,更是一种新型的权力结构,它让决策变得不可追溯,让责任变得分散,让暴力变得去人格化,让战争的审判权,落入了没有情感、没有伦理、没有责任的算法手中。而法律,这个本该约束暴力、界定责任、守护人道的底线,却在AI的高速发展中陷入沉睡。它跟不上算法的速度,跟不上战争形态的演变,无法审判一段代码,无法追责一次算法误判,更无法守护那些被算法定罪的生命。
而对抗这种结构的唯一方式,是拒绝遗忘具体的人。
记住老哈。记住那个在1秒生死线上挣扎的导弹操作员。记住在1-4%的互联网连通率下,那些无法发出求救信号的家庭。
因为AI不会记住他们。AI只会优化下一个目标,以秒为单位。而我们记住他们,就是记住战争的本质,记住法律的使命,记住人类文明的底线,不让算法的冰冷,吞噬人性的温度。不让沉睡的法律,放任暴力的蔓延。
参考文献:
https://caifuhao.eastmoney.com/news/1672680359
https://www.nbd.com.cn/articles/2026-03-03/4277484.html
https://synthorax.com/anthropic-pentagon-ai-war-2026-timeline/
https://www.kyivpost.com/opinion/70333
https://unit42.paloaltonetworks.com/iranian-cyberattacks-2026/
https://fieldeffect.com/blog/cyber-spillover-risks-2026-middle-east-escalation
https://www.cyber.gc.ca/en/guidance/cyber-threat-bulletin-iranian-cyber-threat-response-usisrael-strikes-february-2026