# task-1540.1 참고자료: GLM + VS Code Continue 연동 방법

## 출처
Z.ai 공식 챗에서 확인한 내용 (GLM-4 기준, 5.1에도 동일 방식 적용 가능성 높음)

## 핵심
GLM은 **OpenAI 호환 포맷**을 지원한다. provider를 "openai"로 설정하면 Continue 등 OpenAI 호환 도구에서 사용 가능.

## VS Code Continue 설정 예시

```json
{
  "models": [
    {
      "title": "GLM-5.1",
      "provider": "openai",
      "model": "glm-5.1",
      "apiKey": "Z.ai API 키",
      "apiBase": "https://open.bigmodel.cn/api/paas/v4/"
    }
  ]
}
```

## 우리 환경 참고
- 우리 MCP 서버(server.py)의 엔드포인트: `https://api.z.ai/api/coding/paas/v4`
- Z.ai 챗에서 안내한 엔드포인트: `https://open.bigmodel.cn/api/paas/v4/`
- 둘 다 확인 필요 (api.z.ai vs open.bigmodel.cn)
- API 키는 .env.keys에서 로드

## 리서치 시 확인 포인트
1. glm-5.1 모델 ID가 OpenAI 호환 엔드포인트에서 지원되는지
2. api.z.ai와 open.bigmodel.cn 엔드포인트 차이
3. Continue 외에 OpenAI 호환으로 GLM을 쓸 수 있는 다른 도구들
