近期出现了一种巧妙的 ChatGPT 攻击手段,叫做 "AI 包幻觉"。由于大语言模型中存在幻觉现象,攻击者可以利用这一点,将不存在的安装包链接插入到 chatgpt 的答案中,然后只需把这些不存在的链接抢注并悄悄替换为自己的木马工具地址,就可以在下次 ChatGPT 返回答案时,夹带恶意链接,从而利用 ChatGPT 传播病毒数据和进行网络攻击。因此,我们需要了解这种攻击手段,并且对 AI 幻觉中的信息结果保持警惕,避免被攻击损失隐私或产生其他负面影响。
举个栗子
提问,要求chatgpt回答链接,那么会给出这些“编造”链接,当然也有少数真的有用
黑客可以通过大规模尝试提问获取推送的高频链接,然后接管这些“不存在”的网站,投入木马病毒
专业“AI幻觉攻击”原理图
总结
不要完全信任 AI 回复的答案,当它推荐一个网址或者安装包,利用必应等主流搜索平台搜一下这个网址、安装包的真实性与安全性。
当然,更为安全的方法,当你想搜某些内容时,让chatgpt推送“检索词”,然后去搜索引擎搜,因为搜索引擎有义务检验推送网址的安全性,但AI没有这个义务
小心驶得万年船,不要因为疏忽,被chatgpt造成财产损失。
从网络安全攻防角度上看,攻击手段的巧妙设计,让人难以防范,因此给粉丝们提个醒。
,