# 에이전트 미팅: 집단지성 봇 코덱스 모델 분기 조건 설계

**일시**: 2026-03-16
**미팅 모드**: hybrid
**토론 깊이**: concise
**소집자**: 아누

## 참석자
- 불칸 (Vulcan) — 백엔드/API 설계
- 아테나 (Athena) — UX/사용자 시나리오
- 로키 (Loki) — 레드팀 (필수)

## 안건
gpt-5.2-codex(깊은 토론) vs gpt-5.1-codex-mini(간단한 합의)의 분기 조건 설계

## 배경
- gpt-5.2-codex: 입력 $1.75/M, 출력 $14/M, 추론력 100
- gpt-5.1-codex-mini: 입력 $1.50/M, 출력 $6/M, 추론력 60
- 현재 gpt-5.2-codex 하드코딩

## Cycle 1 (Independent)

### 불칸 의견
- **결론**: 하이브리드 (기본 mini + `--deep` 플래그)
- 자동 감지는 오분류 비용이 너무 큼
- DiscussionManager 생성자에서 model을 받으면 향후 자동 감지 추가도 용이
- 인터페이스를 열어두되 현재는 명시적 제어가 안전

### 아테나 의견
- **결론**: mini 디폴트 + `--deep` 선택적 업그레이드
- 모델명 노출은 UX 실패 → "더 깊이" vs "빠르게" 개념으로
- 보험 도메인은 간단해 보이는 주제가 복잡한 경우 많아 자동 감지 위험
- 사용자는 "--deep 붙이면 된다" 단순 규칙 하나만 기억

### 로키 의견
- **결론**: 기본 mini + 명시 전환
- 자동 감지 = 비용 폭발 트리거가 자동화 안에 숨는 구조 → 반대
- 출력 토큰이 비용 80-90% → 핵심은 출력 2.3배 차이
- 월 토큰 hard cap + 알림 가드레일 추가 권장
- 복잡한 분기 = 유지보수 부채 + 공격면 확대

## 합의
**1사이클 만에 전원 합의 달성**

1. **기본값**: gpt-5.1-codex-mini
2. **전환**: `--deep` 플래그 (사용자 명시 선택)
3. **모델명 비노출**: 사용자에게 "deep" 개념만 전달
4. **자동 감지/시간 기반**: 전원 탈락

### 구현 설계
```
명령어 파싱: /토론 → --deep 플래그 감지
  → DiscussionManager(codex_model="gpt-5.2-codex" or "gpt-5.1-codex-mini")
  → codex_bot.handle_message(model=self.codex_model)
  → engine.call_codex(prompt, model=model)
```

### 기각된 대안
- 자동 키워드 감지: 오판 리스크, 비용 불예측 (전원 기각)
- 시간 기반 분기: 상관관계 약함 (전원 기각)
- max_tokens 하드캡: 로키 제안, 추후 검토 가능
