To defend against malicious AI, US needs to build a robust digital immune system
9 months ago
- #dual-use-technology
- #AI-security
- #cybersecurity
- 人工智能(AI)是一种具有双重用途的技术,既可能造福社会也可能带来破坏性后果。
- 当前AI政策侧重于技术遏制和伦理承诺,却未能将AI转化为降低自身风险的工具。
- 防御性AI被提议作为AI战略的第三支柱,旨在实时监控、检测并应对安全威胁。
- 防御性AI运作如同数字免疫系统,通过训练识别正常与攻击模式来快速标记并消除异常行为。
- 尽管AI公司优先发展通用模型,但对防御性AI的投资对保护数字基础设施至关重要。
- 美国对华AI芯片出口管制存在局限,中国正在建设自主垂直整合的AI产业链。
- 谷歌、OpenAI等企业自设的防护措施存在局限性,可能被恶意行为者绕过。
- GitHub等平台的开源AI模型缺乏强制约束,使得代码容易被改造用于恶意用途。
- 早期防御性AI已应用于银行(反欺诈)和电子邮件(反钓鱼)等领域的安全防护。
- 防御性AI能通过检测静默代码执行和关键设施中的异常活动来强化网络安全。
- 在生物安全领域,防御性AI可识别病原体片段或毒素基因片段时立即终止DNA合成。
- 防御性AI能通过标记合成媒体和社交平台的协同机器人活动来打击虚假信息。
- 需要制定政策蓝图来推动高风险领域中防御性AI的研发与应用。
- 美国需在技术遏制、价值对齐和防御性AI之间取得平衡,以构建更安全的AI生态。
- 支持防御性AI发展对发挥AI技术效益同时规避灾难性风险至关重要。