Hasty Briefsbeta

双语

The Pentagon strongarmed AI firms before Iran strikes

3 months ago
  • #military technology
  • #US politics
  • #AI ethics
  • 美国和以色列对伊朗发动攻击前,美国国防部与人工智能公司Anthropic就Claude系统的伦理使用问题进行了紧张谈判。
  • Anthropic公司要求获得保证,其AI不会被用于国内监控或无人监管的自主武器系统,这导致特朗普总统禁止联邦政府使用其技术。
  • 与此相反,OpenAI与美国国防部达成协议,允许对其工具进行『所有合法用途』的使用,没有设定具体的伦理限制。
  • 特朗普政府一直反对AI监管,许多AI公司与政府立场一致,而Anthropic则警告AI可能破坏民主。
  • 国际社会曾逐渐形成对致命自主武器风险的共识,美国、北约和英国宣布了负责任使用AI的原则。
  • 军事AI的发展严重依赖私营部门合作,政府和行业对AI使用的规范正在迅速变化。
  • 硅谷普遍欢迎特朗普的去监管立场,AI行业领袖提供了大量资金支持。
  • 伦理AI的前提是民主规范,包括算法透明度和公众问责,这些在专制政权下面临挑战。
  • Anthropic推动伦理讨论的举措被特朗普政府贴上『供应链风险』标签,而OpenAI则因缺乏伦理限制面临声誉风险。
  • 军事AI伦理的未来取决于强大的民主规范,而当前国际秩序弱化使这些规范受到威胁。