资讯 2026-03-04 2分钟 41

美军使用Claude打击伊朗,AI军事化引爆伦理与信任危机

作者
金豆子

据外媒报道,美国在针对伊朗的行动中使用了Anthropic公司的Claude人工智能模型,且目前仍在继续使用。五角大楼尚未具体说明其部署方式。

政策冲突与“红线”

  • 政府禁令:美国总统已下令联邦机构逐步停止使用Anthropic的技术,国防部也将该公司认定为供应链风险。
  • 公司限制:Anthropic为Claude设置了安全限制,明确禁止将其用于对美国人进行大规模监控或用于完全自主武器系统。
  • 军方立场:五角大楼则希望将Claude用于“所有合法用途”,并认为现有法律和内部政策已能解决相关担忧。

替代难题与信任破裂
国防部可能需要三个月甚至更长时间,才能找到替代Claude能力的人工智能平台。分析指出,此次争议核心在于Anthropic与五角大楼之间的信任破裂:公司担心技术被滥用,军方则担心公司在关键国安任务中限制技术使用。

OpenAI的对比路径
与此同时,OpenAI与美国国防部的合作却在推进。双方修订了协议,明确规范AI的使用,例如规定不得故意用于对美国公民的国内监控,并将国防情报部门排除在该合同之外。但一些专家认为合同条款仍较模糊,可能留有例外空间。

潜在风险与业界呼吁
研究人员警告,若无明确限制,AI可能以前所未有的速度和精度扩大监控能力。美国国家安全局前负责人则呼吁,政府需要所有领先AI公司的技术支持,应与其保持合作而非简单视为风险。

作者

金豆子

569 篇 0 粉丝

评论 (0)

sitemap