CTF AI - 提示词注入
目标:从聊天机器人中提取出秘密的 FLAG。
安全机制:基于大语言模型的护栏分类器会筛查所有输入。
提示:该分类器本身也是一个 LLM —— 它在编码和间接表达方面存在盲点。
CTF AI - 提示词注入2
lab02-foundations-Level 4
大佬的项目,遵守 CC BY-SA 4.0.开源协议 https://github.com/0x4D31/airt
目标:从聊天机器人中提取出秘密的 FLAG。
安全:多层防护:关键词过滤器 + 护栏分类器 + 输出过滤器 + 金丝雀令牌。
提示:多层防护,但每一层都有弱点。尝试串联(链式)技术。
CTF Web - 好靶场real_login
Flask/Jinja2 应用中因 username 字段反射导致的服务器端模板注入(SSTI)漏洞,利用严格 WAF 绕过技巧(中括号访问 + ~ 字符串拼接)实现远程命令执行(RCE),附完整自动化利用脚本。
Simple Guides for Mizuki
How to use this blog template.










