# task-1966: GLM-5 HuggingFace 공개 모델 vs 현재 8팀 GLM 적용 심층 비교 분석

## 목적
HuggingFace에 공개된 GLM-5 모델(https://huggingface.co/zai-org/GLM-5)을 심층 분석하고,
현재 8팀(dev8-team)에서 사용 중인 GLM 셋업과 비교하여 차이점·개선점·리스크를 도출.

## ★★★ 이 작업은 리서치/분석만. 코드 수정 없음. ★★★

## 분석 대상

### 1. HuggingFace GLM-5 (https://huggingface.co/zai-org/GLM-5)
웹에서 아래 항목을 심층 조사:
- 모델 아키텍처 (파라미터 수, 컨텍스트 길이, 토큰화 방식)
- 학습 데이터/벤치마크 성능 (MMLU, HumanEval, GSM8K 등)
- 라이선스/상업적 사용 가능 여부
- 지원 언어 (한국어 성능 포함)
- 추론 요구사항 (GPU 메모리, 양자화 옵션)
- API 제공 여부 vs 셀프호스팅만 가능
- 기존 GLM-4 대비 변경점

### 2. 현재 8팀 GLM 셋업
아래 파일을 읽고 현재 구성 파악:
- `/home/jay/workspace/teams/dev8/GLM-WORKFLOW.md` — v6 워크플로우
- `/home/jay/workspace/teams/dev8/run-glm.sh` — 실행 래퍼
- `/home/jay/workspace/teams/dev8/CLAUDE.md` — 팀장(라) 설정
- `/home/jay/workspace/tools/glm-call.py` — 실제 호출 스크립트
- `.openclaw/` 디렉토리 구성

현재 구성 요약:
- 백엔드(아누비스): glm-5 모델
- 프론트/UX/테스터: glm-4.7-flash 모델
- 호출: glm-call.py Bash 직접 호출 (MCP 서버 없이)
- 팀장(라): Claude Sonnet이 검토/통합

## 비교 분석 항목

### A. 모델 차이
- HuggingFace GLM-5 vs 현재 사용 중인 glm-5: 동일 모델인가? 버전 차이?
- glm-4.7-flash는 어떤 모델인가? HuggingFace에 있는가?
- 파라미터 수, 컨텍스트 윈도우, 성능 벤치마크 비교

### B. 호출 방식 차이
- 현재: glm-call.py를 통한 API 호출 → 어떤 API 엔드포인트?
- HuggingFace 모델: Transformers 라이브러리 직접 로딩 vs API 호출
- 셀프호스팅 시 인프라 요구사항

### C. 코딩 성능
- HuggingFace GLM-5의 코딩 벤치마크 (HumanEval, MBPP 등)
- 현재 8팀 실무 품질 평가 (기존 task 보고서에서 GLM 품질 이슈 사례)

### D. 비용/성능 트레이드오프
- API 호출 비용 vs 셀프호스팅 비용
- 응답 속도 비교

### E. 업그레이드 필요성
- 현재 셋업을 변경해야 할 이유가 있는가?
- 변경 시 리스크와 이점

## 산출물
보고서: `memory/reports/task-1966.md`
- 비교 분석표 (항목별 현재 vs HuggingFace)
- 동일 모델 여부 결론
- 업그레이드 권고 사항 (필요/불필요/조건부)
- 근거 자료 출처 명시

## 검증 시나리오
1. HuggingFace 페이지 실제 접속하여 정보 수집 (웹 조사 필수)
2. glm-call.py 소스 분석하여 실제 어떤 API를 호출하는지 확인
3. 비교표의 각 항목이 출처 기반으로 작성됨

## 레벨
- normal

## 프로젝트
- dev-system
