# task: GLM 기능 테스트 — glm-call.py + OpenClaw 양쪽 검증

## 배경
8팀의 GLM 활용 방식이 OpenClaw → MCP → glm-call.py로 변천했다.
현재 glm-call.py(직접 z.ai API 호출)를 사용 중이나, OpenClaw 유료 계정도 등록되어 있다.
제이회장님이 두 방식 모두 실제 테스트하여 현재 상태를 확인하길 원한다.

## 테스트 항목

### 1. glm-call.py 테스트 (현재 운영 방식)
```bash
cd /home/jay/workspace
python3 tools/glm-call.py --role backend --task "Hello, 간단한 Python 함수 하나 작성해줘: 피보나치 수열 n번째 항 반환" --model glm-5
```
- 정상 응답 확인 (코드 생성 여부)
- 응답 시간 측정
- 에러 발생 시 에러 메시지 전문 기록

### 2. glm-call.py 다른 모델 테스트
```bash
python3 tools/glm-call.py --role backend --task "1+1=?" --model glm-4.7-flash
python3 tools/glm-call.py --role backend --task "1+1=?" --model glm-4.7-flashx
```
- 각 모델별 응답 확인 + 응답 시간

### 3. OpenClaw 테스트 (유료 계정 검증)
```bash
# 세션 초기화 (기존 오염된 세션 회피)
openclaw --version
# 새 세션으로 간단한 작업 실행
openclaw "1+1은 얼마인가요?" --provider glm --model glm-5
```
- OpenClaw가 GLM 모델에 정상 접근 가능한지 확인
- 세션 오염 문제가 여전히 존재하는지 확인
- 유료 계정 기능(모델 접근, 크레딧 등) 확인
- 에러 발생 시 에러 메시지 전문 기록

### 4. 비교 결론
- glm-call.py vs OpenClaw: 어느 쪽이 더 안정적인지
- 응답 품질/속도 비교
- OpenClaw 유료 계정의 추가 가치가 있는지 (GLM 외 다른 기능 등)

## 산출물
- 각 테스트의 전체 입출력 로그
- 비교 결론 요약
- 권장 방식 제시

## 주의사항
- OpenClaw 테스트 시 기존 세션 오염에 주의 (새 세션 사용)
- 테스트 결과 그대로 보고 (성공 건만 보고 금지)
- API 키나 토큰을 보고서에 노출하지 말 것
