Model Providers
OpenClaw는 많은 LLM 프로바이더를 사용할 수 있습니다. 프로바이더를 선택하고 인증한 뒤, 기본 모델을provider/model로 설정하세요.
채팅 채널 문서 (WhatsApp/Telegram/Discord/Slack/Mattermost (플러그인)/기타)를 찾나요? 채널을 참조하세요.
Highlight: Venice (Venice AI)
Venice는 개인 정보 우선 추론을 위한 권장 Venice AI 설정이며, 어려운 작업에는 Opus를 사용할 수 있는 옵션이 있습니다.- 기본:
venice/llama-3.3-70b - 전반적으로 최고:
venice/claude-opus-45(Opus가 여전히 가장 강력함)
빠른 시작
- 프로바이더에 인증하십시오 (보통
openclaw onboard를 통해). - 기본 모델을 설정하세요:
프로바이더 문서
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- Qwen (OAuth)
- OpenRouter
- LiteLLM (통합 게이트웨이)
- Vercel AI 게이트웨이
- Together AI
- Cloudflare AI 게이트웨이
- Moonshot AI (Kimi + Kimi Coding)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- GLM 모델
- MiniMax
- Venice (Venice AI, 프라이버시 중심)
- Hugging Face (Inference)
- Ollama (로컬 모델)
- vLLM (로컬 모델)
- Qianfan
- NVIDIA
전사 프로바이더
커뮤니티 도구
- Claude Max API 프록시 - OpenAI 호환 API 엔드포인트로 Claude Max/Pro 구독을 사용하세요