OpenAI
OpenAI는 GPT 모델용 개발자 API를 제공합니다. Codex는 구독형 접근을 위한 ChatGPT 로그인과 사용량 기반 접근을 위한 API 키 로그인을 모두 지원합니다. Codex cloud는 ChatGPT 로그인이 필요합니다. OpenAI는 OpenClaw 같은 외부 도구/워크플로에서의 구독 OAuth 사용을 명시적으로 지원합니다.Option A: OpenAI API key (OpenAI Platform)
직접 API 접근과 사용량 기반 청구에 적합합니다.CLI 설정
구성 예시
gpt-5.4와 gpt-5.4-pro를 안내합니다. OpenClaw는 둘 다 openai/* Responses 경로로 전달합니다.
OpenClaw는 오래된 openai/gpt-5.3-codex-spark 행을 의도적으로 숨깁니다. 현재 직접 OpenAI API 호출에서는 이 모델이 실제 트래픽에서 거부되기 때문입니다.
OpenClaw는 직접 OpenAI API 경로에서 openai/gpt-5.3-codex-spark를 노출하지 않습니다. pi-ai는 이 모델의 내장 행을 계속 가지고 있지만, 현재 live OpenAI API 요청은 이를 거부합니다. OpenClaw에서는 Spark를 Codex 전용으로 취급합니다.
Option B: OpenAI Code (Codex) subscription
API 키 대신 ChatGPT/Codex 구독 접근을 사용할 때 적합합니다.CLI 설정 (Codex OAuth)
구성 예시
gpt-5.4를 현재 Codex 모델로 안내합니다. OpenClaw에서는 이를 ChatGPT/Codex OAuth용 openai-codex/gpt-5.4로 매핑합니다.
Codex 계정에 Codex Spark entitlement가 있다면 OpenClaw는 다음도 지원합니다:
openai-codex/gpt-5.3-codex-spark
openai/gpt-5.3-codex-spark API 키 경로는 노출하지 않습니다.
또한 pi-ai가 openai-codex/gpt-5.3-codex-spark를 발견한 경우 OpenClaw는 이를 유지합니다. entitlement 의존적이며 실험적인 모델로 보세요. Codex Spark는 GPT-5.4의 /fast와 별개이며, 사용 가능 여부는 로그인한 Codex / ChatGPT 계정에 달려 있습니다.
전송 기본값
OpenClaw는 모델 스트리밍에pi-ai를 사용합니다. openai/*와 openai-codex/* 모두 기본 전송은 "auto"입니다. 즉, WebSocket을 먼저 시도하고 실패하면 SSE로 폴백합니다.
설정 위치:
agents.defaults.models.<provider/model>.params.transport
"sse""websocket""auto"
OpenAI WebSocket warm-up
OpenAI 문서는 warm-up을 선택 사항으로 설명하지만, OpenClaw는 WebSocket 사용 시 첫 턴 지연을 줄이기 위해openai/*에 기본적으로 openaiWsWarmup: true를 켭니다.
비활성화:
OpenAI priority processing
OpenAI API는service_tier=priority를 통한 우선 처리 기능을 제공합니다. OpenClaw에서는 직접 openai/* Responses 요청에 이 값을 전달하려면 agents.defaults.models["openai/<model>"].params.serviceTier를 설정합니다.
autodefaultflexpriority
OpenAI fast mode
OpenClaw는openai/*와 openai-codex/* 세션 모두에 공통 fast-mode 토글을 제공합니다:
- 채팅/UI:
/fast status|on|off - config:
agents.defaults.models["<provider>/<model>"].params.fastMode
- payload에 reasoning이 이미 없으면
reasoning.effort = "low" - payload에 verbosity가 이미 없으면
text.verbosity = "low" - 직접
api.openai.com으로 가는openai/*Responses 호출에는service_tier = "priority"
OpenAI Responses 서버 측 compaction
직접 OpenAI Responses 모델(openai/*, api: "openai-responses", api.openai.com baseUrl)에서는 OpenClaw가 OpenAI 서버 측 compaction 힌트를 자동 활성화합니다.
store: true강제 (supportsStore: false인 호환성 모델 제외)context_management: [{ type: "compaction", compact_threshold: ... }]주입
compact_threshold는 모델 contextWindow의 70%이며, 알 수 없으면 80000입니다.
명시적 활성화 예:
Notes
- 모델 참조는 항상
provider/model형식을 사용합니다. 자세한 내용은 /ko-KR/concepts/models를 참조하세요. - 인증 세부사항과 재사용 규칙은 /ko-KR/concepts/oauth에 있습니다.