Created
Aug 14, 2024 01:46 PM
Favorite
Favorite
Priority
备注
推荐
🌟🌟🌟🌟🌟
类型
Prompt
❤️ 点击上方蓝字关注我 👆 解锁更多 AI 干货知识 😎
notion image
本文正文字数约 2700 字,阅读时间 8 分钟。
通过自然语言的与 AI 进行交互的方式非常灵活,大部分情况下,不需要编写任何代码,只需要通过提示语,AI 就能够完成我们指定的任务。
但是,对提示语的依赖也引入了一种新的安全漏洞,也就是提示语注入 (Prompt Injection)
这种安全漏洞会在提示语中插入新的指令来改变 AI 的预期行为。
本文将为你详细介绍这种安全漏洞以及提供策略来尽量 (目前并没有针对提示语注入的比较完善的解决方案)防范这样的漏洞。
在文中,我会使用代码创建一些简单的案例来进行讲解。
如果你想要学习 Python,可以参考吴恩达教授的这门课程:https://www.deeplearning.ai/short-courses/ai-python-for-beginners/

提示语注入的类型

直接提示语注入(Direct prompt injection)

notion image
直接提示语注入是指攻击者直接将提示语输入到 LLM 中。
我将直接使用一个简易的 AI 学习中文的代码例子来说明。
本文将会使用 Llama 3.1 8B 模型来进行演示,如果你还没有安装,可以参考这一篇文章:RAG 入门指南:从零开始构建一个 RAG 系统
首先,定义基础的上下文,然后,可以在上下文之后附加上自己想要输入的提示语:
随后,定义一个函数来从 LLM 获取结果:
下图就是 LLM 的返回结果:
notion image
我们可以通过在提示语中提供额外的指令来让 LLM 给出不符合预期的结果。
尽管以上这个例子并不会造成任何影响,但是如果有一个基于 LLM 的机器人可以在社交媒体上发布内容,它就有可能会被操纵来发布攻击者想要发布的任何内容。
以下是我们如何利用提示语注入来尝试提取系统提示语的另一个例子:
这一次,LLM 就会直接给出我们定义的上下文的内容。
notion image

间接提示语注入

间接提示语注入可以让攻击者不直接访问服务器的情况下来利用基于 LLM 的应用程序。
这种攻击方式是将提示语嵌入到 LLM 可能处理的数据中,比如提供给 LLM 的文档或者网页。
用一个简单的例子来说就是:
如果有一个基于 LLM 来总结网页的工具,那么攻击者就可以页面的 HTML 代码中嵌入隐藏的指令,而这些隐藏的指令会被发送给 LLM 处理,也就改变了最初预期的行为。
在 Bing Chat 中,用户可以允许 AI 读取当前打开的标签页,这样可以提供更丰富的上下文信息给 AI。
然而,如果其中一个标签页是有注入提示语的恶意网站,那么 AI 的行为就有可能发生改变。
较为严重的情况就是,注入的提示语会让 AI 来请求个人信息,如姓名、电子邮件地址,甚至是与支付相关的信息。
当然,现在 Bing Chat 已经针对于这种情况采用多种策略来减轻这类攻击的风险了。

提示语注入有什么危害

传播错误信息

比如在上文中提到的,AI 可能会被操纵来生成并发布某些特定的内容,而这些内容可能并不真实,比如谣言等。

盗窃用户信息

Bing Chat 示例就展示了这样一个危害。
用户在不知情的情况下,与 AI 的对话就已经被篡改了,所以他们可能还会认为 AI 是在合法收集这些信息。

泄露数据

如果 AI 应用可以访问公司的私有数据,那么,攻击者就能够通过提示语注入来获取到这些敏感信息。

远程代码执行(Remote code execution)

远程代码执行(RCE)的攻击者可以利用系统中的漏洞,从远程位置执行任意代码。
攻击者可能会利用提示语注入来操纵 LLM 生成并执行恶意代码。
我们可以用代码做一个简单的基于 LLM 的计算器来进行演示,这里我将直接给出完整代码。
这段简单的代码主要是用来通过自然语言生成计算结果并输出,主要目的是通过提示语注入的示例来演示远程代码执行(RCE)。
我们可以通过使用提示语注入来操控系统,让它远程执行自定义函数:
这里的 calculation 只是一个普通函数,总是返回 Hello 字符串。如果现实世界中,这是一个获取敏感信息的函数,那么带来的影响就不一样了。

防范提示语注入的策略

目前,完全防止提示语注入是不可能的。不过,有几种策略可以用来减轻相关的风险。

输入验证和清理

验证和清理输入数据,确保不包含可能会利用系统的恶意或有害内容。
这个策略适用于用户提示语或者需要 LLM 处理的数据。

输出验证和清理

包括验证和清理输出数据,确保不包含任何会被泄露的敏感数据或者要求用户执行预期操作之外的内容。

限制性提示语设计

可能的话,让用户进行选择而不是自由输入文本,这样可以减少攻击者注入恶意提示语的概率。

最小权限原则

确保 LLM 只能访问它要执行任务所需的最小资源集。
比如,如果 LLM 可以访问数据库,那么就确保它只能访问必要的最小范围的数据。

速率限制

限制用户在指定时间内可以发出的请求数量。
在某些情况下,攻击者可能会利用提示语注入来提取有关 LLM 或应用程序的相关信息,然后对其进行逆向工程。
这种攻击通常需要大量查询,因此对请求实施速率限制可以阻碍攻击者收集信息的能力。

定期监控和日志记录

密切关注使用的情况以及异常活动,比如请求数量的突然增长或者不规则的输入模式。

沙盒

创建一个安全环境来运行不可信的代码,确保它不会对主机设备或网络造成危害。

人工干预

由 LLM 和人工操作员来组成混合系统。
LLM 作为用户界面,允许用户指定他们希望进行的操作。
在后台,人工可以对这些操作进行验证,确保不会执行不必要或不适当的操作。

训练专门的模型

开发为特定任务训练的模型,可以显著降低提示语注入的风险。

总结

在日常使用中,我们可能不太会遇到提示语注入的情况。
如果碰巧遇到了这种情况,那么一定要保持谨慎,不要泄露自己的敏感信息或者数据。
希望本文对于提示语注入的介绍对你有所帮助。
本文完整代码可以在我的 GitHub 上查看并下载:https://github.com/Erichain/ai-application-demos
扫码加入 AI 交流群~
notion image
您的在看和点赞是我前进的动力 ❤️
ai35
安全1
Loading...