# team_content 실사용 가능 여부 재분석 — task-1380.1 결과물 검증

## 긴급도: CRITICAL
task-1380.1에서 team_content를 신설했으나, 실제 아누 시스템에서 문제없이 활용 가능한지 검증 필요.

## 검증 항목

### 1. dispatch.py 통합 검증
- `python3 dispatch.py --team content-team --task-file <테스트파일> --level normal` 실행 가능한가?
- content-team이 봇 매핑이 제대로 되어 있는가? (어느 봇에 할당?)
- 기존 팀(dev1~8, marketing, design 등)과 충돌 없는가?
- 봇 충돌 검사 통과하는가?

### 2. team_prompts.py 검증
- `_build_content_prompt()` 함수가 정상 동작하는가?
- 프롬프트가 올바르게 생성되는가?
- 기존 팀 프롬프트와 간섭 없는가?

### 3. organization-structure.json 검증
- team_content가 올바르게 추가되었는가?
- 팀원(아폴론, 페이토 등) 정보 정확한가?
- 기존 팀 데이터 깨지지 않았는가?

### 4. 워크플로우 6단계 검증
- content-pipeline/ 디렉토리 구조 존재하는가?
- auto_approve.py 실행 가능한가? (import 에러 없는가?)
- hook_scorer.py 실행 가능한가?
- 5조건 자동 승인 로직 정상 동작하는가?
- blacklist.json, config.json 형식 올바른가?

### 5. 콘텐츠팀 발동 조건
- 어떤 상황에서 content-team에 dispatch하는가?
- 아누가 `--team content-team`으로 위임하면 즉시 동작하는 구조인가?
- 자동 트리거(스케줄/이벤트 기반)가 있는가? 없다면 수동 위임만?
- ThreadAuto v2와의 연동은 어떻게 되는가?

### 6. 사전 승인 템플릿 20종
- 실제 20종이 생성되었는가?
- 각 템플릿이 3x3 매트릭스 + 5감정 훅 공식 기반인가?
- 실제 사용 가능한 품질인가?

### 7. thread-hook-formula 연동
- hook_scorer.py가 thread-hook-formula 스킬의 체크리스트를 정확히 구현하는가?
- 5감정 감지 로직이 실제로 동작하는가?

### 8. 통합 테스트
- 실제로 간단한 테스트 콘텐츠를 만들어서 전체 파이프라인(초안 → 스코어링 → 승인 → 게시 대기)이 돌아가는지 end-to-end 테스트

## 참조 파일 (task-1380.1 산출물)
- 보고서: `/home/jay/workspace/memory/reports/task-1380.1.md`
- dispatch.py: `/home/jay/workspace/dispatch.py`
- team_prompts.py: `/home/jay/workspace/prompts/team_prompts.py`
- organization-structure.json: `/home/jay/workspace/memory/organization-structure.json`
- content-pipeline/: `/home/jay/workspace/content-pipeline/`
- thread-hook-formula: `/home/jay/.claude/skills/thread-hook-formula/SKILL.md`

## 산출물
1. 8개 검증 항목별 PASS/FAIL 결과
2. 발견된 문제점 목록 + 수정 사항
3. 문제 있으면 직접 수정 후 재검증
4. 보고서: `/home/jay/workspace/memory/reports/` 에 저장
