两种「注入」方式带你黑掉「LLM」大模型(ChatGPT Claude3 Gemini均适用)
本帖最后由 不二如是 于 2024-4-2 10:06 编辑https://www.bilibili.com/video/BV1yq421w7eN
总结:
直接提示注入:也称为“越狱(Jailbreaking)”,通过直接与LLM交互并提供特定制作的输入,可以揭示或绕过系统指令,从而“越狱”出允许的操作范围。
间接提示注入:**** Hidden Message ***** Jailbreaking
页:
[1]