【现实世界的提示词注入攻击:研究揭示一块标牌如何欺骗自动驾驶汽车】加州大学研究团

中南评汽车啊 2026-02-02 09:51:44

【现实世界的提示词注入攻击:研究揭示一块标牌如何欺骗自动驾驶汽车】加州大学研究团队发现,自动驾驶汽车依赖的视觉-语言大模型存在安全漏洞,攻击者只需举起一块优化后的印刷标志,就能劫持AI决策,使其无视安全法则执行危险指令。在模拟测试中,攻击成功率最高可达95.5%。自动驾驶安全AI漏洞

0 阅读:0
中南评汽车啊

中南评汽车啊

感谢大家的关注