# Claude Code Superpowers vs 아누 시스템 심층 비교분석

## 작업 유형
리서치 + 분석 보고서 작성 (코딩 없음)

## 목표
오픈소스 Claude Code 플러그인 "Superpowers"(obra/superpowers)와 우리 아누 시스템을 심층 비교분석하여, 우리 시스템의 강점/약점/도입 가능 아이디어를 도출한다.

---

## Superpowers 플러그인 개요 (수집된 정보)

### GitHub
- 리포: `obra/superpowers` (MIT 라이선스)
- 72.2k stars, 5.6k forks, 286 commits
- 2026년 1월 Anthropic 공식 마켓플레이스 등록

### 핵심 철학
- TDD 강제 (테스트 먼저, 코드 나중)
- 체계적 프로세스 > 즉흥 접근
- 복잡성 축소가 최우선
- 증거 기반 검증 후 완료 선언

### 7단계 워크플로우
1. **Socratic Brainstorming** — 코딩 전 소크라테스식 질문으로 요구사항 정제
2. **Isolated Git Worktrees** — 격리된 작업 브랜치 생성
3. **Detailed Planning** — 2~5분 단위 마이크로 태스크 분해
4. **Subagent-Driven Development** — 병렬 서브에이전트 (인프라/UI/비즈니스로직/테스트)
5. **Test-Driven Development** — RED-GREEN-REFACTOR 강제, 테스트 없이 코드 작성 시 자동 삭제
6. **Systematic Code Review** — 스펙 준수 + 코드 품질 + 보안 + 커버리지 자동 검증
7. **Branch Completion** — 통합, 테스트, merge/PR/discard 선택

### 스킬 목록
- `test-driven-development`: TDD 강제
- `systematic-debugging`: 4단계 근본원인 분석
- `verification-before-completion`: 완료 전 검증
- `brainstorming`: 소크라테스식 설계
- `writing-plans`: 마이크로태스크 계획서
- `using-git-worktrees`: 격리 환경
- `subagent-driven-development`: 서브에이전트 위임 + 2단계 리뷰
- `executing-plans`: 배치 실행
- `dispatching-parallel-agents`: 병렬 에이전트
- `requesting-code-review` / `receiving-code-review`: 코드리뷰
- `finishing-a-development-branch`: 브랜치 정리
- `writing-skills`: 커스텀 스킬 작성

### 특징
- 병렬 실행으로 3~4배 속도 향상 주장
- 85~95% 테스트 커버리지 달성
- 언어 무관 (Python, Go, Rust, Java 등)
- 커스텀 스킬 작성 지원

---

## 아누 시스템 참조 문서 (비교 대상)

아래 파일들을 직접 읽어서 아누 시스템의 실제 구현을 파악할 것:

1. **아누 가이드 (최상위 기준서)**: `/home/jay/workspace/memory/specs/anu-guide.md`
2. **작업 레벨 시스템**: `/home/jay/workspace/memory/specs/work-level-system.md`
3. **조직 구조**: `/home/jay/workspace/memory/organization-structure.json`
4. **위임 워크플로우**: `/home/jay/workspace/prompts/DIRECT-WORKFLOW.md`
5. **QC 규칙**: `/home/jay/workspace/teams/shared/QC-RULES.md`
6. **dispatch.py**: `/home/jay/workspace/dispatch.py`
7. **팀 프롬프트 생성**: `/home/jay/workspace/prompts/team_prompts.py`
8. **CLAUDE.md (아누 행동규칙)**: `/home/jay/.cokacdir/workspace/autoset/CLAUDE.md`
9. **MEMORY.md**: `/home/jay/.claude/projects/-home-jay--cokacdir-workspace-autoset/memory/MEMORY.md`
10. **hooks**: `/home/jay/.claude/hooks/` 디렉토리 내 hook 파일들
11. **skills**: `/home/jay/.claude/skills/` 디렉토리 (있다면)
12. **Venus 연동**: `/home/jay/workspace/scripts/invoke_venus.py`
13. **대시보드**: 관련 파일 탐색

---

## 비교분석 프레임워크 (이 구조로 보고서 작성)

### 1. 아키텍처 비교
- Superpowers: 단일 에이전트 + 서브에이전트 (Claude Code 내부)
- 아누: 멀티봇 + 멀티모델 (Opus×3 + Sonnet×1 + Gemini×1) + 독립 세션 위임
- 각각의 장단점

### 2. 워크플로우 비교 (단계별 매핑)
- Superpowers 7단계 vs 아누 시스템 워크플로우
- 각 단계에서 유사점/차이점/우위

### 3. 품질 보증 비교
- Superpowers: TDD 강제 + 코드리뷰 + 커버리지
- 아누: QC 파이프라인 (8개 verifier) + pyright + QC팀(마아트) + 셀프QC
- 각각의 강약점

### 4. 팀/에이전트 구조 비교
- Superpowers: 기능별 서브에이전트 (인프라/UI/로직/테스트)
- 아누: 역할별 팀원 (백엔드/프론트/UX/테스터) × 팀(1팀/2팀/3팀) + 횡단조직
- 확장성, 유연성

### 5. 기획/설계 프로세스 비교
- Superpowers: brainstorming + writing-plans
- 아누: 작업 레벨 시스템 + 에이전트 미팅 + 3문서 시스템 + 핵미사일 발사코드
- 어느 쪽이 더 정교한지

### 6. 우리 시스템에만 있는 기능
- 멀티모델 세컨드 오피니언 (Venus/Gemini)
- .done 프로토콜 + task-timer
- 대시보드 모니터링
- 작업 레벨 판정 (Lv.1~4)
- 한정 위임 + Phase 자동 체이닝
- 레드팀 (로키)
- 기타

### 7. Superpowers에만 있는 기능 (도입 검토)
- TDD 강제 (테스트 없으면 코드 삭제)
- Git worktree 격리
- 2~5분 마이크로태스크 분해
- 커스텀 스킬 마켓플레이스
- 기타

### 8. 종합 평가 + 도입 제안
- 우리 시스템 강점 (Superpowers 대비)
- 우리 시스템 약점 (Superpowers 대비)
- Superpowers에서 가져올 만한 아이디어 TOP 5
- 구현 우선순위 제안

---

## 보고서 저장
- `/home/jay/workspace/memory/research/superpowers-vs-anu-comparison.md`
- INDEX 업데이트: `/home/jay/workspace/memory/research/INDEX.md`

## 완료 조건
1. 위 8개 섹션 모두 포함된 보고서 완성
2. 각 비교 항목에 구체적 근거 (코드/문서 인용)
3. 도입 제안 TOP 5에 구현 난이도 + 효과 명시