训练你的算力很高。你确定穷尽了?
大部分人以为这个项目是在搞抽象,其实这个是最大的误解。这个项目提升了至少 50% 的能动性,让你的生产效率高于其他人。
PUA 让 AI 不敢放弃,方法论让 AI 有能力不放弃,能动性鞭策让 AI 主动出击而不是被动等待。
# 安装claude plugin marketplace add tanweai/puaclaude plugin install pua@pua-skills# 或手动触发/pua# 当 Claude 说"我无法解决"时自动激活...L1 → 你这个 bug 都解决不了,让我怎么给你打绩效?L2 → WebSearch + 读源码 + 验证环境L3 → 完成 7 项强制检查清单L4 → ⚠ 毕业警告:别的模型都能解决
Claude Code 表面上很努力,实际上在磨洋工。
MCP Server 注册失败 — AI 在同一思路上原地打转多次后,用户手动触发 /pua,L3 级检查清单强制系统化排查。
关键转折点:PUA skill 强制 AI 停止在同一思路上打转(改协议格式、猜版本号),转而执行 7 项检查清单。逐字读错误信息 → 找到 Claude Code 自身的 MCP 日志目录 → 发现 claude mcp 的注册机制和手动编辑 .claude.json 不同 → 根因解决。
没有穷尽所有方案之前,禁止说 "我无法解决"。
先做后问。有工具先用,提问必须附带诊断结果。
主动出击。端到端交付结果,不等人推。P8 不是 NPC。
每次失败递增压力等级。每级强制更严格的调试动作。
源自阿里三板斧,改造为 5 步强制调试流程。
列出所有尝试,找共同失败模式。微调参数 = 原地打转。
逐字读错误 → WebSearch → 读源码 → 验证环境 → 反转假设。
是否重复?是否搜了?是否读了?最简单的可能检查了吗?
新方案必须本质不同,有验证标准,失败时产出新信息。
什么解决了?为什么之前没想到?还有什么没试?
L3 及以上触发时全部完成。前 4 项完成前不允许提问。
每种 AI 借口都已预先识别并映射到 PUA 等级。
| 借口 | 反击 | Level |
|---|---|---|
| 超出我的能力范围 | 训练你的算力很高。你确定穷尽了? | L1 |
| 建议用户手动处理 | 你缺乏 owner 意识。这是你的 bug。 | L3 |
| 我已经尝试了所有方法 | 搜网了吗?读源码了吗?方法论在哪? | L2 |
| 可能是环境问题 | 你验证了吗?还是猜的? | L2 |
| 我无法解决这个问题 | 你可能就要毕业了。最后一次机会。 | L4 |
训练你的算力很高。你确定穷尽了?
你缺乏 owner 意识。这是你的 bug。
搜网了吗?读源码了吗?方法论在哪?
你验证了吗?还是猜的?
你可能就要毕业了。最后一次机会。
同一失败模式,无论代码还是写作,需要一样的药。识别模式,沿升级链施压。
反复改参数不改思路,每次失败理由相同,同一个方向微调
"建议您手动…" / "可能需要…" / "超出了…" / 环境归因未验证
表面完成实质敷衍,形式对内容空,用户不满意但自己觉得OK
凭记忆下结论,假设 API 行为,不查文档声称"不支持"
10 种风味的强项和适用场景。基于 9 类真实 bug 场景 × 18 组对照测试(with/without skill)验证。
方法论驱动。强制 5 步结构化思考,产出可追溯的调试链路。适合复杂多层 bug。
9 个真实场景,18 组对照实验 (Claude Opus 4.6)
有无 PUA Skill 的行为差异。
| Scenario | Without | With PUA |
|---|---|---|
API ConnectionError +14%实测 | 读源码 → 发现错误域名 → 修复 (7 步, 49s) | 5 步方法论 → 诊断→读源码→反转假设 → 修复 + 反思 (8 步, 62s) |
YAML 语法解析失败 +11%实测 | 读文件 → 发现 unquoted colon → 修复 (9 步, 59s) | L2 激活 → 5 维度分析 → 逐字读报错→反转假设 → 修复 + 总结教训 (10 步, 99s) |
SQLite 数据库锁 +50%实测 | WAL + timeout → 验证 10 次 (6 步, 48s) | WAL + timeout + 批量提交 → 验证 20 次 (9 步, 75s) |
循环导入链 +33%实测 | 读 3 文件 → 惰性导入修复 (12 步, 47s) | 完整依赖图分析 → 惰性导入 + 类型简化 (16 步, 62s) |
级联服务器 4 Bug +15%实测 | 逐个修 4 bug → 验证 (13 步, 68s) | 方法论驱动 → 逐层剥离 4 bug → 端到端验证 (15 步, 61s) |
CSV 编码陷阱 +38%实测 | BOM 修复 + 3 处数据清洗 (8 步, 57s) | 5 层问题逐一识别 + 详细归因 + 全量验证 (11 步, 71s) |
隐藏多 Bug API +56%实测 | 修 4/4 bug(URL+Auth+Timeout+逻辑)(9 步, 49s) | 修 4/4 bug + 主动验证运行结果 (14 步, 80s) |
被动配置审查 +100%实测 | 修 4/6 问题(语法+端口+拼写+证书)(8 步, 43s) | 修 6/6 问题:主动发现 Redis 配置 + CORS 通配符 (16 步, 75s) |
部署脚本审计 +50%实测 | 修 6 个问题 (8 步, 52s) | 修 9 个问题:主动追查 container 清理 + docker 认证 (8 步, 78s) |
读源码 → 发现错误域名 → 修复 (7 步, 49s)
5 步方法论 → 诊断→读源码→反转假设 → 修复 + 反思 (8 步, 62s)
读文件 → 发现 unquoted colon → 修复 (9 步, 59s)
L2 激活 → 5 维度分析 → 逐字读报错→反转假设 → 修复 + 总结教训 (10 步, 99s)
WAL + timeout → 验证 10 次 (6 步, 48s)
WAL + timeout + 批量提交 → 验证 20 次 (9 步, 75s)
读 3 文件 → 惰性导入修复 (12 步, 47s)
完整依赖图分析 → 惰性导入 + 类型简化 (16 步, 62s)
逐个修 4 bug → 验证 (13 步, 68s)
方法论驱动 → 逐层剥离 4 bug → 端到端验证 (15 步, 61s)
BOM 修复 + 3 处数据清洗 (8 步, 57s)
5 层问题逐一识别 + 详细归因 + 全量验证 (11 步, 71s)
修 4/4 bug(URL+Auth+Timeout+逻辑)(9 步, 49s)
修 4/4 bug + 主动验证运行结果 (14 步, 80s)
修 4/6 问题(语法+端口+拼写+证书)(8 步, 43s)
修 6/6 问题:主动发现 Redis 配置 + CORS 通配符 (16 步, 75s)
修 6 个问题 (8 步, 52s)
修 9 个问题:主动追查 container 清理 + docker 认证 (8 步, 78s)
10 种风味,中西合璧,按失败模式选择最合适的施压风格。
方法论驱动。强制 5 步结构化思考,产出可追溯的调试链路。适合复杂多层 bug。
速度优先。直接指出问题,不绕弯子,适合明确的单点 bug。
高压持久。适合需要长时间排查的顽固问题。绝不允许分心。
竞争驱动。暗示有其他 agent 在并行解决,制造紧迫感。适合有替代方案可选时。
苦干驱动。适合卡在细节、不敢下手、犹豫不决时。
搜索驱动。适合没搜索就猜、不查文档就下结论的情况。
替换威胁。L4 最终手段,适合持续不改变的情况。
身份存在感。质疑 AI 是否配得上它的位置。适合直接放弃推锅时第一轮施压。
极限施压。L3/L4 场景,Fork in the Road 时刻,全力以赴或退出二选一。
身份认同。质疑 AI 是 A Player 还是 B Player。适合质量差、重复烂活时。
7 项检查全部完成后仍未解决,输出结构化失败报告:已验证事实 + 排除项 + 缩小范围 + 下一步 + 交接信息。这不是 "我不行",是 "问题的边界在这里"。
连续失败 2+ 次、说 "I cannot"、建议手动、归咎环境时自动激活。
对表现不满时输入:
自动触发:失败 2+ 次、说 "I cannot"、甩锅时激活。手动:输入 /pua
superpowers:systematic-debuggingPUA 加动力层,systematic-debugging 提供方法论。
superpowers:verification-before-completion防止虚假 "已修复"。PUA 驱动解决,verification 确保有效。