# Haiku 코워크 실전 테스트

> 발견일: 2026-03-01
> 검증: task-34.3 (2팀 오딘)
> 보고서: `/home/jay/workspace/memory/reports/task-34.3.md`

## 결론
Haiku는 **단순 코딩 작업에서 Sonnet에 준하는 품질**을 보여준다.
Task tool의 `model="haiku"` 파라미터는 정상 동작하며, 팀장(Sonnet)→팀원(Haiku) 계층 구조는 **실무에서 유효**하다.

## 테스트 구성
- **팀장**: 오딘 (Sonnet 4.6) — 작업 분배 + 결과 통합
- **팀원 3명**: 모두 `model="haiku"` 지정
  - 토르(백엔드): 문자열 유틸리티 함수 4개
  - 프레이야(프론트엔드): HTML 생성기 함수 4개
  - 헤임달(테스터): 전체 테스트 작성

## 결과 상세

### 토르 (백엔드, Haiku)
- **파일**: `string_utils.py` (156줄)
- **함수**: camel_to_snake, snake_to_camel, truncate, word_count
- **토큰**: 11,064 / **시간**: 12.7초
- **품질**: 정규표현식 활용, docstring 완비

### 프레이야 (프론트엔드, Haiku)
- **파일**: `html_generator.py` (245줄)
- **함수**: dict_list_to_table, dict_to_dl, make_html_page + _escape_html(보너스)
- **토큰**: 11,830 / **시간**: 16.9초
- **품질**: XSS 이스케이프 **자발적 구현**, 반응형 CSS 포함

### 헤임달 (테스터, Haiku)
- **파일**: `test_utils.py` (414줄)
- **테스트**: 66개 (string 35 + html 28 + 통합 3)
- **토큰**: 28,676 / **시간**: 51.0초 (파일 2개 읽기 포함)
- **품질**: 엣지케이스, 보안, 경계값 모두 커버

### pytest 결과
```
66 passed in 0.05s — 실패 0건
```

## model="haiku" 파라미터 검증
- Task tool 스펙에 `model` 파라미터 존재: `enum: ["sonnet", "opus", "haiku"]`
- 각 호출 시 `model="haiku"` 명시적 설정 → 오류 없이 수락
- **간접 증거**: 토르/프레이야 각 ~11K tokens, ~13-17초 → Sonnet 대비 빠른 응답 특성
- **한계**: API 응답에 실제 모델 ID가 직접 노출되지 않아 100% 직접 확인은 불가

## 적합한 사용 케이스
- 명확한 스펙이 있는 유틸리티 함수 구현
- 정형화된 테스트 코드 작성
- 보일러플레이트 코드 생성
- 반복적인 코드 패턴 작성

## 주의 사항
- 복잡한 아키텍처 설계/비즈니스 로직 추론 → Sonnet 권장
- 의존성이 많은 작업은 tool_uses 증가로 토큰 절감 효과 감소 가능

## 비용 효과
- Haiku: 입력 $0.80/M, 출력 $4/M
- Sonnet: 입력 $3/M, 출력 $15/M
- **Haiku가 약 3.7배 저렴** (단순 작업 품질 동등 기준)
- 3명 병렬 총 소비: 51,570 tokens ≈ $0.04 (Haiku) vs $0.15 (Sonnet)
