Ollama
Ollama는 로컬 LLM 런타임으로, 오픈 소스 모델을 손쉽게 머신에서 실행할 수 있도록 해줍니다. OpenClaw는 Ollama의 네이티브 API (/api/chat)와 통합되어 스트리밍 및 도구 호출을 지원하며, OLLAMA_API_KEY (또는 인증 프로파일)로 선택하고 명시적인 models.providers.ollama 항목을 정의하지 않을 경우 도구 지원 모델을 자동으로 검색할 수 있습니다.
빠른 시작
- Ollama 설치: https://ollama.ai
- 모델 가져오기:
- OpenClaw에서 Ollama 활성화하기 (아무 값이나 설정 가능합니다; Ollama는 실제 키를 필요로 하지 않습니다):
- Ollama 모델 사용:
모델 검색 (암시적 프로바이더)
OLLAMA_API_KEY (또는 인증 프로파일)를 설정하고 models.providers.ollama를 정의하지 않으면 OpenClaw는 로컬 Ollama 인스턴스에서 모델을 검색합니다: http://127.0.0.1:11434
/api/tags및/api/show쿼리tools기능을 보고하는 모델만 유지- 모델이
thinking을 보고할 때reasoning으로 표시 - 사용 가능한 경우
model_info["<arch>.context_length"]에서contextWindow를 읽음 - 컨텍스트 윈도우의 10배로
maxTokens설정 - 모든 비용을
0으로 설정
models.providers.ollama를 명시적으로 설정하면 자동 발견이 건너뛰어지며 모델을 수동으로 정의해야 합니다 (아래 참조).
설정
기본 설정 (암시적 검색)
Ollama를 활성화하는 가장 간단한 방법은 환경 변수를 통한 것입니다:명시적 설정 (수동 모델)
명시적 구성을 사용해야 하는 경우:- Ollama가 다른 호스트/포트에서 실행 중일 때.
- 특정 컨텍스트 윈도우 또는 모델 목록을 강제하려는 경우.
- 도구 지원을 보고하지 않는 모델을 포함하려는 경우.
OLLAMA_API_KEY가 설정된 경우, 프로바이더 항목에서 apiKey를 생략할 수 있으며 OpenClaw는 가용성 확인을 위해 이를 채웁니다.
사용자 정의 기본 URL (명시적 구성)
Ollama가 다른 호스트나 포트에서 실행 중인 경우 (명시적 구성은 자동 발견을 비활성화하므로 모델을 수동으로 정의):모델 선택
설정이 완료되면 모든 Ollama 모델을 사용할 수 있습니다:고급
Reasoning 모델
OpenClaw는 Ollama가/api/show에서 thinking을 보고할 때 모델을 reasoning 가능한 것으로 표시합니다:
모델 비용
Ollama는 무료로 로컬에서 실행되므로 모든 모델 비용은 $0으로 설정됩니다.스트리밍 설정
OpenClaw의 Ollama 통합은 기본적으로 네이티브 Ollama API (/api/chat)를 사용하며, 스트리밍 및 도구 호출을 동시에 완전히 지원합니다. 특별한 설정은 필요하지 않습니다.
레거시 OpenAI 호환 모드
프록시 뒤에서 OpenAI 형식만 지원하는 경우와 같이 OpenAI 호환 엔드포인트를 사용해야 한다면,api: "openai-completions"을 명시적으로 설정하세요:
params: { streaming: false }로 스트리밍을 비활성화해야 할 수 있습니다.
컨텍스트 윈도우
자동으로 발견된 모델의 경우, OpenClaw는 가능하면 Ollama가 보고한 컨텍스트 윈도우를 사용하고, 그렇지 않을 경우 기본값인8192를 사용합니다. 명시적 프로바이더 구성에서 contextWindow와 maxTokens를 재정의할 수 있습니다.
문제 해결
Ollama가 감지되지 않음
Ollama가 실행 중인지 확인하고OLLAMA_API_KEY (또는 인증 프로파일)를 설정했는지, 명시적 models.providers.ollama 항목을 정의하지 않았는지 확인하세요:
사용 가능한 모델이 없음
OpenClaw는 도구 지원을 보고하는 모델만 자동으로 발견합니다. 모델이 목록에 없으면, 다음 두 가지 중 하나를 수행하세요:- 도구 지원 모델을 가져오거나,
models.providers.ollama에 모델을 명시적으로 정의하세요.
연결이 거부됨
Ollama가 올바른 포트에서 실행 중인지 확인하세요:관련 문서
- Model Providers - 모든 프로바이더 개요
- Model Selection - 모델 선택 방법
- Configuration - 전체 구성 참조