# task-1539: GLM 모델 업그레이드 실적용 + 활용 방안 리서치

## 목표
1. GLM 모델 업그레이드를 실제 코드에 반영하여 동작하게 만든다
2. GLM을 더 효과적으로 활용할 수 있는 방법을 리서치한다

## Phase 1: 모델 업그레이드 코드 반영

### 변경 대상 파일 (8팀 셀프체크 보고서 기반)

#### 1-1. `tools/glm-mcp/server.py` — MCP 서버 모델 변경
- `glm_backend()` (line ~244): `glm-5` → `glm-5.1` (아누비스)
- `glm_frontend()` (line ~267): `glm-4.7-flash` → `glm-5` (호루스)
- `glm_uxui()` (line ~290): `glm-4.7-flash` → `glm-5` (바스테트)
- `glm_tester()` (line ~310): `glm-4.7-flash` → `glm-5` (소베크)

#### 1-2. `tools/glm-call.py` — CLI 도구 모델 목록
- line ~63: VALID_MODELS에 `glm-5.1` 추가
- 변경 후: `["glm-5.1", "glm-5", "glm-4.7", "glm-4.7-flash", "glm-4.7-flashx"]`

#### 1-3. `glm-coder.py` — 기본 모델 확인
- 현재 기본 모델이 `glm-4.7-flash`인지 확인
- 필요 시 glm-5로 업데이트

#### 1-4. dispatch 프롬프트 템플릿 — 모델명 동기화
- dispatch.py 또는 team_prompts.py에서 MCP tool 설명란의 모델명 업데이트
- `glm_backend` → glm-5.1, `glm_frontend` → glm-5, `glm_uxui` → glm-5, `glm_tester` → glm-5

#### 1-5. 테스터 이름 불일치 수정
- dispatch 프롬프트에서 테스터가 "토트(Thoth)"로 되어 있으나 조직도는 "소베크(Sobek)"
- 정확한 매핑으로 수정

### 검증
- 각 모델(glm-5.1, glm-5)로 간단한 API 호출 테스트
- Z.ai API에서 glm-5.1 모델 ID가 실제 지원되는지 확인
- 지원 안 되면 올바른 모델 ID를 찾아서 적용

## Phase 2: GLM 추가 활용 방안 리서치

현재 GLM은 MCP 서버를 통해 8팀(라 팀장)이 위임할 때만 사용된다. GLM을 더 폭넓게 활용할 방법을 리서치한다.

### 리서치 항목
1. **VS Code Continue 확장**: GLM-5.1을 VS Code 코딩 도우미로 연동하는 방법
   - Continue 설정 파일에서 GLM API 연동 방법
   - 자동완성, 인라인 코드 제안, 챗 기능 활용법
   - 우리 Z.ai API 키로 연동 가능한지 확인
2. **GLM-5.1 Coding Plan**: 월 $3~$10 코딩 플랜의 기능과 한계
3. **셀프호스팅 가능성**: MIT 라이선스 오픈소스이므로 로컬 배포 가능한지
   - 754B 파라미터 모델의 하드웨어 요구사항
   - 우리 서버 스펙으로 가능한지
4. **다른 팀에서의 활용**: 8팀 외에 다른 팀(1~7팀)에서도 GLM을 보조 도구로 쓸 수 있는 방안

### 보고서 형식
- Phase 1 결과: 변경한 파일 목록, 테스트 결과
- Phase 2 결과: 각 방안별 가능/불가 판정 + 추천안

## 보고서
`memory/reports/task-1539.md`에 작성