# task-1056.1 비교분석 보고서: 외부 개발규칙 vs 아누시스템 개발부

**작성자**: 마르둑 (개발5팀장)
**작성일**: 2026-03-26
**작업 레벨**: Lv.2 (한정승인)
**팀원**: 엔키(항목별 대응 비교), 나부(구조적 차이/강점 분석)

---

## SCQA

**S**: 제이회장님보다 AI 업무능력이 뛰어난 분의 개발규칙 일부(26개 항목 + 문서 우선순위 + Daily 기록 규칙 + 멀티 AI 구조)를 입수했다. 해당 시스템은 Claude + Codex + Kimi 3개 AI 역할 분리 구조로 운영된다.

**C**: 외부 규칙에서 배울 점이 있는지, 우리 아누시스템(7개 개발팀 + 8팀 외주 + 횡단조직, 4대 AI 엔진, 85개 스킬)과의 체계적 비교가 필요하다. 단, 입수된 규칙이 "일부분"이므로 외부 시스템 전체를 이 규칙만으로 판단할 수 없다는 제약이 있다.

**Q**: 외부 개발규칙에서 우리가 배울 점은 무엇이고, 기존 시스템을 깨뜨리지 않는 additive 방식으로 어떻게 도입할 수 있는가?

**A**: 26개 항목 중 ✅완전보유 10개, ⚠️부분보유 12개, ❌미보유 4개. 핵심 공백 3가지를 식별했으며(코드 아키텍처 원칙 문서, 공통 용어사전, 변경 즉시 문서 갱신 트리거), 구체적 도입안을 제시한다. 종합 성숙도에서 우리 시스템이 외부 대비 우위(41/50 vs 24/50)이나, 외부의 "코딩 컨벤션 단일 기준 문서"와 "용어사전" 개념은 도입 가치가 있다.

---

## 1. 항목별 대응 비교 (26개 항목)

### ✅ 이미 보유 (10개)

**항목 1: 문서화 병행**
- anu-guide.md §2.2 "3문서 없이 코딩 절대 금지" + Phase별 보고서 의무. 문서화를 개발 "진입 조건"으로 적용하여 외부보다 강함.

**항목 9: 전체 흐름 점검**
- QC-RULES.md §1-A "이 변경이 다른 파일에 영향을 미치는가?" + scope_check verifier 자동 대조. 외부와 동등.

**항목 12: 개발 전후 영향분석**
- 개발 전(work-level-system.md "어떻게?" 체크) + 개발 후(QC 셀프 체크리스트 + scope_check). 구조적으로 보유.

**항목 18: 문서 없이 예외 구현 금지**
- anu-guide.md "계획서에 명시되지 않은 변경 금지" + CLAUDE.md "독단 위임 금지". 외부보다 강한 수준.

**항목 22: 개발 전 리서치 조사 선행**
- anu-guide.md §2.5 Phase 0 리서치 단계 + memory/research/ 저장. Kimi 역할을 아누 사전조사 + Phase 0로 동등 커버.

**항목 23: Git worktree 분산 작업**
- DIRECT-WORKFLOW.md §1.5 worktree_manager.py create. Lv.2+ 작업에 자동 적용.

**항목 24: 공식 워크플로우 문서 기반**
- DIRECT-WORKFLOW.md가 공식 기준 문서. 외부 workflow/README.md와 동등.

**항목 25: CLI 기반 에이전트 실행**
- dispatch.py, qc_verify.py, finish-task.sh 등 CLI 기반 자동화 체인 완비.

**항목 26: 에이전트 공통 운영 문서**
- CLAUDE.md + QC-RULES.md + DIRECT-WORKFLOW.md + anu-guide.md 체계. 역할별 분산 구조.

**항목 21: AGENTS.md↔CLAUDE.md 동기화** (구조적 차이로 보유)
- 우리는 AGENTS.md 없이 CLAUDE.md 단일 체계이나, sync-check.py로 bot_settings.json↔organization-structure.json↔MEMORY.md 3자 동기화 자동 감지를 구현.

### ⚠️ 부분 보유 (12개)

**항목 2: 문서 즉시 갱신** — Phase 완료 시 문서 업데이트는 있으나 API/구조 변경 "즉시" 갱신 트리거 규칙 부재
**항목 3: 디자인 패턴 준수** — AI 냄새 체크로 간접 커버하나 GoF/SOLID 등 명시적 패턴 요구 없음
**항목 4: 역할 분명한 구조 우선** — 제1원칙 분해로 간접 커버하나 아키텍처 원칙 명문화 없음
**항목 5: 공통 모듈화 (DRY)** — QC에서 간접 체크하나 DRY 원칙 명시적 규칙 없음
**항목 7: 결합도/응집도** — 팀 수준 역할 분리는 강하나 코드 단위 SOLID 검증 규칙 없음
**항목 8: 확장 가능 구조 검토** — Lv.2+ 아키텍처 판단은 있으나 Lv.1 확장성 검토 의무 없음
**항목 10: 비즈니스 흐름 반복 검사** — Phase 간 연결은 있으나 E2E 통합 검증 의무화 미흡
**항목 11: 사용자 흐름 기준 영향 확인** — 런타임 검증(curl)은 있으나 "발행"까지 전수 검증 의무 없음
**항목 13: 성능+규칙+영향 합산 검증** — 9종 verifier 있으나 성능(응답시간/메모리) 측정 지표 부재
**항목 14: 변경마다 영향 확인** — Lv.1 이상은 커버하나 Lv.0에서 QC 파이프라인 스킵되어 충돌
**항목 15: 공통 디자인 규칙 확인** — 프로세스 규칙은 강하나 코드 아키텍처 디자인 기준 문서 없음
**항목 17: 디자인 문서 갱신 후 개발** — 계획서 선작성은 강제하나 "공통 설계 패턴 문서"로 환원하는 체계 없음

### ❌ 미보유 (4개)

**항목 6: OOP 모듈화 우선 원칙** — 코딩 스타일/아키텍처 원칙 명문화 문서 전무
**항목 16: 공통 디자인 기준 문서 (docs/design/README.md 상당)** — 통합 코드 아키텍처 기준 문서 없음
**항목 19: 공통 용어사전** — 시스템 용어를 단일 기준 문서로 관리하는 체계 없음
**항목 20: 용어사전 동시 갱신** — 용어사전 자체가 없으므로 갱신 프로세스도 없음

---

## 2. 구조적 차이 분석

### 2-1. 멀티 AI 구조

**외부**: 3 AI = 3 역할(코딩/검증/리서치) 1:1 고정 배정. 단순명쾌하나 확장성 제한.
**우리**: 4대 엔진(Anthropic Opus/Sonnet/Haiku + Gemini + GLM-5) × 매트릭스 조직(8개 개발팀 + 횡단조직 + 논리적팀). 40+ 에이전트, dispatch.py 중앙 오케스트레이션. 봇B~I 8개 동시 세션으로 병렬 처리.

평가: 우리가 규모·다양성·확장성에서 압도적. 외부가 단순성·진입 용이성에서 우위.

### 2-2. 문서 체계

**외부**: docs/ 단일 계층. AGENTS.md↔CLAUDE.md 양방향 동기화. docs/design/, docs/glossary/ 통합 기준.
**우리**: memory/(specs/research/reports/tasks/plans/meetings/daily) + skills/(85개) + teams/(팀별 CLAUDE.md/SOUL.md/HEARTBEAT.md) 3계층. Tier 1/2/3 토큰 효율 로딩.

평가: 외부가 진입 장벽 낮음. 우리가 토큰 효율·검색 정밀도에서 우위. 단, 공통 디자인 기준 문서와 용어사전은 외부가 보유하고 우리가 미보유.

### 2-3. Daily 기록

**외부**: docs/daily/YYYY-MM-DD/ 에이전트별 개별 파일(codex.md, claude.md, kimi.md).
**우리**: memory/daily/YYYY-MM-DD.md 단일 파일 통합 + task-timer.py 자동 시각/소요시간 기록 + .done 비동기 완료 신호.

평가: 외부가 에이전트별 책임 분리 명확. 우리가 전체 타임라인 통합 조회와 자동화에서 우위.

### 2-4. 영향분석

**외부**: Codex 단일 전담 에이전트. 생성↔검증 분리.
**우리**: 위험도 3단계 분기(normal/critical/security) + 9종 verifier + 마아트(QC) + 로키(레드팀) + PostToolUse 훅 자동 실행.

평가: 우리가 다층 검증·보안 특화·자동화에서 압도적 우위.

---

## 3. 우리 시스템의 강점 (외부에 없는 것)

1. **작업 레벨 시스템 (Lv.0~Lv.4)**: 태스크 규모별 프로세스 차별화. 외부는 단일 프로세스.
2. **핵미사일 발사코드**: Context Purge + 3문서 영속화 + 강제 승인. AI 누적 노이즈 구조적 제거.
3. **보안팀 — 로키 레드팀**: PentAGI 5인 체계(OWASP, STRIDE, CVE). 외부는 보안 레이어 부재.
4. **복합팀 시스템**: `--composite marketing,design`으로 단일 세션 내 멀티팀 Phase 조율.
5. **85개 스킬**: 4가지 트리거(키워드/의도/경로/패턴) 자동 활성화. 진입/진출 조건 명시.
6. **dispatch.py 중앙 위임**: injection_guard → approval → model_router → timer → 봇 선택 자동 체인.
7. **.done 프로토콜**: done-watcher → notify-completion → 아누 통보 완전 자동화.
8. **Phase 분리 원칙**: 1 Phase = 1 세션. Phase 간 연결 = 파일. 세션 사망 시에도 복구 가능.
9. **fact_guard**: 수치 환각 방지 3중 안전장치. 출처 미확인 수치 unverified 플래그.
10. **에이전트 미팅**: 최대 6사이클 Annotation Cycle. 보리스 워크플로우 흡수.
11. **QC 자동 검증**: qc_verify.py(9종 verifier) + code-validator.py + red-team-auto-review.py.
12. **PostToolUse 훅**: 파일 저장 시 즉시 자동 검사. System 2 Forcing.
13. **Audit Trail**: 팀/팀원/시각/파일/변경유형/사유 자동 기록. 포렌식 추적.
14. **매트릭스 조직**: 수직(CC) + 횡단(CR). 어떤 팀에도 횡단조직 투입 가능.

---

## 4. 배울 점 + 도입 제안

### 도입 제안 1: 코드 아키텍처 원칙 문서 신설 (즉시 도입 권장)

**배울 점**: 외부 항목 3, 4, 5, 6, 7, 15, 16, 17이 가리키는 "공통 디자인 기준 문서"
**도입안**:
- 파일: `memory/specs/code-architecture-principles.md` 신설
- 내용: SOLID 원칙, DRY 원칙, 디자인 패턴 권장사항, 결합도/응집도 기준
- 연동: QC-RULES.md 셀프 체크리스트에 "코드 아키텍처 원칙을 확인했는가?" 항목 추가 (7번째 항목)
- 기존 충돌: 없음 (additive)
- 우선순위: **즉시** — 부분 보유 8개 항목을 한 번에 해소

### 도입 제안 2: 공통 용어사전 신설 (즉시 도입 권장)

**배울 점**: 외부 항목 19, 20의 "용어사전 기준 문서"
**도입안**:
- 파일: `memory/specs/glossary.md` 신설
- 내용: 시스템 용어(dispatch, Phase, worktree, .done, Lv.0~4, CC/CR 등), 팀명/역할명, 기술 용어
- 연동: anu-guide.md에 "새 개념 도입 시 용어사전 동시 갱신" 규칙 1줄 추가
- 기존 충돌: 없음 (additive)
- 우선순위: **즉시** — 미보유 2개 항목 해소 + 신규 에이전트 온보딩 비용 절감

### 도입 제안 3: 변경 시 문서 즉시 갱신 트리거 (검토 후 도입)

**배울 점**: 외부 항목 2의 "API 변경 → 문서 즉시 갱신"
**도입안**:
- PostToolUse 훅에 API 엔드포인트 파일(routes.py 등) 변경 감지 시 "관련 API 문서를 갱신했는가?" 리마인드 추가
- 또는 QC-RULES.md 셀프 체크리스트에 "인터페이스 변경 시 관련 문서를 갱신했는가?" 항목 추가
- 기존 충돌: 없음 (기존 훅에 조건 추가)
- 우선순위: **검토 후** — 훅 수정 범위 확인 필요

### 도입 제안 4: 성능 지표 포함 영향분석 (검토 후 도입)

**배울 점**: 외부 항목 13의 "전체 성능을 영향분석에 합산"
**도입안**:
- qc_verify.py에 `performance_check` verifier 추가 (응답시간 측정, 메모리 사용량)
- API 서버 작업 시 `--api-base` + `--perf-threshold 2000ms` 옵션으로 성능 기준치 검증
- 기존 충돌: 없음 (기존 verifier 목록에 추가)
- 우선순위: **검토 후** — 서버 작업에만 해당, 범용성 제한

### 도입 불필요 항목

- **항목 21 (AGENTS.md↔CLAUDE.md 동기화)**: 우리는 CLAUDE.md 단일 체계 + sync-check.py로 이미 해결. 구조적으로 불필요.
- **항목 6 (OOP 모듈화 우선)**: Python 생태계에서 OOP 강제는 과도. 도입 제안 1의 "코드 아키텍처 원칙 문서"에서 권장 수준으로 포함하면 충분.

---

## 5. 종합 평가

### 영역별 10점 만점 스코어

- 멀티 AI 구조: 외부 5 / 우리 9
- 문서 체계: 외부 5 / 우리 8
- Daily 기록: 외부 5 / 우리 7
- 영향분석: 외부 5 / 우리 9
- 기획/검증 프로세스: 외부 4 / 우리 8
- 합계: **외부 24/50 vs 우리 41/50**

### 외부가 우리보다 나은 영역
- **진입 장벽 낮음**: 3 AI × 단일 docs/ 구조. 신규 에이전트 온보딩 비용 최소.
- **코드 아키텍처 원칙 명문화**: SOLID/DRY/디자인 패턴을 규칙으로 직접 명시.
- **용어사전**: 공통 용어 기준 문서 존재.
- **변경 즉시 문서 갱신**: API/정책 변경 시 즉시 갱신 트리거.

### 우리가 외부보다 나은 영역
- **조직 규모·다양성**: 40+ 에이전트, 4대 AI 엔진, 매트릭스 조직.
- **자동화 깊이**: dispatch.py, .done, PostToolUse, Audit Trail 완전 자동 체인.
- **품질 게이트 다층화**: 9종 verifier + 마아트 + 로키 레드팀.
- **도메인 특화**: 85개 스킬, 작업 레벨 시스템, 핵미사일 발사코드.
- **보안**: PentAGI 패턴 전담 보안팀.

### 종합 판정
외부 시스템은 **소규모 팀이 운영하기에 최적화된 실용적 규칙 세트**이다. 코딩 컨벤션과 문서 관리에 강점이 있다. 우리 아누시스템은 **대규모 AI 조직 운영에 특화된 엔터프라이즈급 시스템**이다. 프로세스·자동화·보안에서 압도적이나, 코드 아키텍처 원칙 명문화라는 기본적인 영역에서 공백이 있다. 도입 제안 1~2를 즉시 적용하면 이 공백을 해소할 수 있다.

---

## 발견 이슈 및 해결

### 자체 해결 (3건)
1. **MODULARIZATION-PHILOSOPHY.md 파일 부재** — 작업 지시서에 참조 파일로 명시되었으나 실제 파일 미존재. 해당 파일 없이 다른 참조 자료로 분석 진행.
2. **외부 규칙이 "일부분"이라는 제약** — 보고서 전반에 "입수된 규칙 기준" 한정 판단임을 명시하고, 외부 시스템 전체에 대한 과대/과소 평가를 방지.
3. **Lv.0 QC 스킵과 외부 항목 14 충돌 식별** — Lv.0은 "상수/경로 1~2줄"로 실질 영향이 최소이므로 현행 유지가 합리적. 충돌은 구조적 차이로 인한 것이며 실질 위험은 낮음.

### 범위 외 미해결 (0건)
없음.

---

## 셀프 QC 체크리스트

- [x] 1. 이 변경이 다른 파일에 영향을 미치는가? — 보고서 파일 1개 신규 생성. 기존 파일 수정 없음.
- [x] 2. 이 로직의 엣지 케이스는 무엇인가? — 외부 규칙이 "일부분"이므로 전체 시스템 평가 불가한 점을 명시함.
- [x] 3. 이 구현이 작업 지시와 정확히 일치하는가? — 5개 분석 요구사항(항목별 대응, 구조적 차이, 강점, 도입 제안, 종합 평가) 모두 포함.
- [x] 4. 에러 처리와 보안은 확인했는가? — 분석 작업이므로 해당 없음.
- [x] 5. 테스트가 모든 경로를 커버하는가? — 분석 작업이므로 해당 없음. 26개 항목 전수 비교 완료.
- [x] 6. 발견한 이슈를 모두 직접 해결했는가? — 3건 자체 해결, 미해결 0건.
