Ollama
OpenClaw는 호스팅된 클라우드 모델과 로컬/자체 호스팅 Ollama 서버를 위해 Ollama의 네이티브 API(/api/chat)와 통합됩니다. Ollama는 세 가지 모드로 사용할 수 있습니다: 접근 가능한 Ollama 호스트를 통한 Cloud + Local, https://ollama.com을 대상으로 하는 Cloud only, 또는 접근 가능한 Ollama 호스트를 대상으로 하는 Local only.
시작하기
선호하는 설정 방법과 모드를 선택하세요.- 온보딩(권장)
- 수동 설정
적합한 경우: 작동하는 Ollama 클라우드 또는 로컬 설정까지 가장 빠르게 진행하고 싶을 때.필요하면 사용자 지정 base URL 또는 모델도 지정할 수 있습니다.
모드 선택
- Cloud + Local — 로컬 Ollama 호스트와, 그 호스트를 통해 라우팅되는 클라우드 모델
- Cloud only —
https://ollama.com을 통한 호스팅된 Ollama 모델 - Local only — 로컬 모델만 사용
모델 선택
Cloud only는 OLLAMA_API_KEY를 요청하고 호스팅된 클라우드 기본값을 제안합니다. Cloud + Local과 Local only는 Ollama base URL을 요청하고, 사용 가능한 모델을 검색하며, 선택한 로컬 모델이 아직 없으면 자동으로 pull합니다. Cloud + Local은 해당 Ollama 호스트가 클라우드 액세스를 위해 로그인되어 있는지도 확인합니다.비대화형 모드
클라우드 모델
- Cloud + Local
- Cloud only
- Local only
Cloud + Local은 로컬 모델과 클라우드 모델 모두에 대해 접근 가능한 Ollama 호스트를 제어 지점으로 사용합니다. 이것은 Ollama가 권장하는 하이브리드 흐름입니다.설정 중에 Cloud + Local을 사용하세요. OpenClaw는 Ollama base URL을 요청하고, 해당 호스트에서 로컬 모델을 검색하며, 호스트가 ollama signin으로 클라우드 액세스에 로그인되어 있는지 확인합니다. 호스트가 로그인되어 있으면 OpenClaw는 kimi-k2.5:cloud, minimax-m2.7:cloud, glm-5.1:cloud 같은 호스팅된 클라우드 기본값도 제안합니다.호스트가 아직 로그인되어 있지 않으면, ollama signin을 실행할 때까지 OpenClaw는 설정을 local-only로 유지합니다.모델 검색(암시적 provider)
OLLAMA_API_KEY(또는 auth 프로필)를 설정하고 models.providers.ollama를 정의하지 않으면, OpenClaw는 http://127.0.0.1:11434의 로컬 Ollama 인스턴스에서 모델을 검색합니다.
| 동작 | 세부 정보 |
|---|---|
| 카탈로그 쿼리 | /api/tags 조회 |
| 기능 감지 | 최선형 /api/show 조회를 사용해 contextWindow를 읽고 기능(vision 포함)을 감지 |
| 비전 모델 | /api/show에서 vision 기능이 보고된 모델은 이미지 지원 모델(input: ["text", "image"])로 표시되므로, OpenClaw가 프롬프트에 이미지를 자동 주입함 |
| 추론 감지 | 모델 이름 휴리스틱(r1, reasoning, think)으로 reasoning 표시 |
| 토큰 제한 | OpenClaw가 사용하는 기본 Ollama 최대 토큰 한도로 maxTokens 설정 |
| 비용 | 모든 비용을 0으로 설정 |
models.providers.ollama를 명시적으로 설정하면 자동 검색은 건너뛰며, 모델을 수동으로 정의해야 합니다. 아래의 명시적 config 섹션을 참고하세요.구성
- 기본(암시적 검색)
- 명시적(수동 모델)
- 사용자 지정 base URL
가장 간단한 local-only 활성화 경로는 환경 변수를 사용하는 것입니다.
모델 선택
구성이 끝나면 모든 Ollama 모델을 사용할 수 있습니다.Ollama 웹 검색
OpenClaw는 번들된web_search provider로 Ollama 웹 검색을 지원합니다.
| 속성 | 세부 정보 |
|---|---|
| 호스트 | 구성된 Ollama 호스트를 사용함(models.providers.ollama.baseUrl이 설정된 경우 그 값, 아니면 http://127.0.0.1:11434) |
| 인증 | 키 불필요 |
| 요구 사항 | Ollama가 실행 중이어야 하며 ollama signin으로 로그인되어 있어야 함 |
openclaw onboard 또는 openclaw configure --section web 중에 Ollama 웹 검색을 선택하거나, 다음과 같이 설정하세요.
전체 설정 및 동작 세부 정보는 Ollama 웹 검색을 참고하세요.
고급 구성
레거시 OpenAI 호환 모드
레거시 OpenAI 호환 모드
대신 OpenAI 호환 엔드포인트를 사용해야 한다면(예: OpenAI 형식만 지원하는 프록시 뒤에 있는 경우), 이 모드는 스트리밍과 도구 호출을 동시에 지원하지 않을 수 있습니다. 모델 config에서
api: "openai-completions"를 명시적으로 설정하세요.params: { streaming: false }로 스트리밍을 비활성화해야 할 수 있습니다.Ollama와 함께 api: "openai-completions"를 사용하면, OpenClaw는 기본적으로 options.num_ctx를 주입하여 Ollama가 조용히 4096 컨텍스트 윈도우로 되돌아가지 않도록 합니다. 프록시/업스트림이 알 수 없는 options 필드를 거부한다면 이 동작을 비활성화하세요.컨텍스트 윈도우
컨텍스트 윈도우
자동 검색된 모델의 경우, OpenClaw는 가능하면 Ollama가 보고한 컨텍스트 윈도우를 사용하고, 그렇지 않으면 OpenClaw가 사용하는 기본 Ollama 컨텍스트 윈도우로 대체합니다.명시적 provider config에서
contextWindow와 maxTokens를 재정의할 수 있습니다.추론 모델
추론 모델
OpenClaw는 기본적으로 추가 구성은 필요하지 않습니다. OpenClaw가 자동으로 표시합니다.
deepseek-r1, reasoning, think 같은 이름을 가진 모델을 추론 가능 모델로 취급합니다.모델 비용
모델 비용
Ollama는 무료이며 로컬에서 실행되므로, 모든 모델 비용은 $0으로 설정됩니다. 이는 자동 검색된 모델과 수동으로 정의된 모델 모두에 적용됩니다.
메모리 임베딩
메모리 임베딩
번들된 Ollama Plugin은 메모리 검색을 위한 메모리 임베딩 provider를 등록합니다. 구성된 Ollama base URL과 API 키를 사용합니다.
메모리 검색 임베딩 provider로 Ollama를 선택하려면 다음과 같이 설정하세요.
| 속성 | 값 |
|---|---|
| 기본 모델 | nomic-embed-text |
| 자동 pull | 예 — 임베딩 모델이 로컬에 없으면 자동으로 pull됨 |
스트리밍 구성
스트리밍 구성
OpenClaw의 Ollama 통합은 기본적으로 네이티브 Ollama API(
/api/chat)를 사용하며, 이 방식은 스트리밍과 도구 호출을 동시에 완전히 지원합니다. 특별한 구성은 필요하지 않습니다.문제 해결
Ollama가 감지되지 않음
Ollama가 감지되지 않음
Ollama가 실행 중인지, API에 접근할 수 있는지도 확인하세요.
OLLAMA_API_KEY(또는 auth 프로필)를 설정했는지, 그리고 명시적인 models.providers.ollama 항목을 정의하지 않았는지 확인하세요.사용 가능한 모델 없음
사용 가능한 모델 없음
모델이 목록에 없으면, 모델을 로컬에서 pull하거나
models.providers.ollama에 명시적으로 정의하세요.연결 거부됨
연결 거부됨
Ollama가 올바른 포트에서 실행 중인지 확인하세요.
관련 항목
모델 provider
모든 provider, 모델 ref, 장애 조치 동작 개요.
모델 선택
모델을 선택하고 구성하는 방법.
Ollama 웹 검색
Ollama 기반 웹 검색의 전체 설정 및 동작 세부 정보.
구성
전체 config 참조.