철학 vs 실제 코드 Gap 감사 (GLM 외주 금지, 라 팀장 직접 수행)

## 임무
아누 가이드에 명시된 철학/원칙과 실제 구현된 코드 사이에 갭(Gap)이 있는지 전수 조사.
**GLM에 외주 주지 말고 라 팀장이 직접 수행하라.**

## 감사 대상 (파일 목록)

### 아누 가이드 (기준)
- /home/jay/workspace/memory/specs/anu-guide.md — 전체 기준서

### 실제 코드
1. /home/jay/workspace/prompts/team_prompts.py — 팀장 프롬프트 생성
2. /home/jay/workspace/dispatch.py — 위임 시스템
3. /home/jay/.claude/hooks/user-prompt-submit.sh — UserPromptSubmit 훅
4. /home/jay/.claude/hooks/post-tool-use.sh — PostToolUse 훅
5. /home/jay/.claude/hooks/pre-tool-use.sh — PreToolUse 훅 (신규)
6. /home/jay/.claude/hooks/stop-qc-reminder.sh — Stop 훅
7. /home/jay/.claude/hooks/lib/detect-bot.sh — 봇 식별
8. /home/jay/.claude/settings.json — 훅 설정
9. /home/jay/workspace/memory/event-queue.py — 이벤트 큐 (구현 중)
10. /home/jay/workspace/memory/task-timer.py — 작업 타이머
11. /home/jay/workspace/dashboard/server.py — 대시보드 백엔드
12. /home/jay/workspace/dashboard/index.html — 대시보드 프론트

## 감사 항목 (아누 가이드 섹션별)

### 1. 자동 매뉴얼 시스템 (가이드 1장)
- 1.1 훅 자동 실행 흐름: 명령→훅감지→매뉴얼전달→실행 체인이 실제로 동작하는가?
- 1.2 4가지 매칭 조건(키워드/의도/위치/파일내용): 실제 구현 여부?
- 1.3 PostToolUse 체크: 실제 뭘 체크하는가? 가이드대로인가?
- 1.4 감사추적(Audit Trail): 누가/언제/뭘/왜 수정했는지 자동 기록 되는가?
- 1.5 스킬 토큰 효율(3-Tier): 실제 구현 여부?

### 2. 작업 기억 시스템 (가이드 2장)
- 2.1 3문서(계획서/맥락노트/체크리스트): 팀장 프롬프트에서 강제하는가?
- 2.2 Agent 미팅 반복: 코드에 반영되었는가?
- 2.3 결정론적 실행: team_prompts.py에 반영되었는가?
- 2.4 리서치 단계: 코드에 반영되었는가?

### 3. 자동 품질 검사 (가이드 3장)
- 3.1 QC 프로세스 위험도별 분기: dispatch level 파라미터로 구현되었는가?
- 3.2 AI 냄새 체크: 코드에 구현되었는가?
- 3.3 반대 프레임: 코드에 구현되었는가?
- 3.4 셀프체크(System 2 Forcing): 실제 구현 여부?
- 3.5 런타임 검증: 코드에 구현되었는가?

### 4. 전문 에이전트 (가이드 4장)
- 4.1 교차 검증(Cross-Review): 생성≠검증 분리가 코드에 구현되었는가?
- 4.2 보고서 필수 내용(대안+기각사유): 프롬프트에서 강제하는가?

## 보고서 형식
/home/jay/workspace/memory/reports/<task-id>.md에 아래 형식으로 작성:

각 항목별:
- **상태**: ✅ 구현됨 / ⚠️ 부분 구현 / ❌ 미구현 / 🔄 개념만 있음
- **근거**: 어느 파일 몇 번째 줄에서 확인했는지 구체적 인용
- **Gap 설명**: 가이드에서 요구하는 것 vs 실제 코드가 하는 것

마지막에 **Gap 요약표** + **우선순위별 개선 제안** 포함.