不二如是 发表于 2024-4-3 11:00:00

两种「注入」方式带你黑掉「LLM」大模型(ChatGPT Claude3 Gemini均适用)

本帖最后由 不二如是 于 2024-4-2 10:06 编辑



https://www.bilibili.com/video/BV1yq421w7eN

总结:

直接提示注入:也称为“越狱(Jailbreaking)”,通过直接与LLM交互并提供特定制作的输入,可以揭示或绕过系统指令,从而“越狱”出允许的操作范围。

间接提示注入:**** Hidden Message *****

zhkeji 发表于 2024-4-10 22:15:00

Jailbreaking
页: [1]
查看完整版本: 两种「注入」方式带你黑掉「LLM」大模型(ChatGPT Claude3 Gemini均适用)