Indirect Prompt Injection Attacks Against LLM Assistants
8 months ago
- #LLM Security
- #Prompt Injection
- #Cybersecurity
- 研究揭示了针对LLM智能体的实际攻击手段,重点关注提示软件风险
- 提出创新的威胁分析与风险评估(TARA)框架,专门用于评估提示软件风险
- 发现定向提示软件攻击可通过电子邮件、日历邀请和共享文档实施间接提示注入
- 在五类威胁中演示14种攻击场景,展示数字与物理层面的双重危害
- 揭示提示软件具备突破LLM应用边界、实现设备内横向移动的潜在风险
- TARA分析显示73%的威胁对终端用户构成高危急风险等级
- 探讨可将风险降至极低-中等水平的缓解措施
- 研究成果已向谷歌披露并促成专项防护方案落地
- 论证提示注入是当前LLM技术的本质缺陷,需突破性科学进展才能解决