OpenClaw lässt sich mit Ollama zu einem lokalen KI-Gateway für Chat, Agen­ten­lo­gik und Tools kom­bi­nie­ren. So können große Sprach­mo­del­le voll­stän­dig auf dem eigenen System betrieben werden. Diese Anleitung zeigt Schritt für Schritt, wie OpenClaw in­stal­liert, ein Modell geladen und samt Dashboard, Messaging-Kanal und Skills ein­ge­rich­tet wird.

Free VPS Trial
vServer kostenlos testen für 30 Tage

Lassen Sie sich von den Vorteilen über­zeu­gen. Probieren Sie Ihren Virtual Server ganz in Ruhe 30 Tage lang aus!

Schritt 1: Eigener Server als Basis

Der prak­ti­sche Mehrwert, OpenClaw und Ollama selbst zu hosten, liegt vor allem in fünf Punkten:

  1. Die Mo­dell­ver­ar­bei­tung bleibt auf der eigenen In­fra­struk­tur, was für Da­ten­schutz, Ver­trau­lich­keit und Com­pli­ance oft der wich­tigs­te Grund ist.
  2. Der Aufbau ist trans­pa­ren­ter, weil OpenClaw als Open-Source-System do­ku­men­tiert und kon­fi­gu­rier­bar ist.
  3. Man behält die volle Kontrolle über Mo­dell­wahl, Skills, Dienste und Start­ver­hal­ten.
  4. Der Kern­be­trieb eines solchen Setups kann grund­sätz­lich auch ohne externe Modell-API funk­tio­nie­ren, sofern bewusst nur lokale Modelle und lokale Werkzeuge genutzt werden.
  5. OpenClaw ist agen­ten­ori­en­tiert gebaut. Das System ist also nicht nur ein Chat­fens­ter für ein Modell, sondern eine Ar­beits­um­ge­bung mit Skills, Tools, Workspace und Web­ober­flä­che.

Auf einem eigenen Server können Sie dann bei­spiels­wei­se auch Ihre eigene OpenClaw-Docker-In­stal­la­ti­on ein­rich­ten, die sich perfekt mit Ollama kom­bi­nie­ren lässt.

Tipp

OpenClaw hat um­fang­rei­che Sys­tem­rech­te. Der Agent kann bei­spiels­wei­se Shell-Befehle ausführen, Dateien lesen oder Skripte starten. In­stal­lie­ren Sie Skills nur aus ver­trau­ens­wür­di­gen Quellen und be­schrän­ken Sie Zu­griffs­rech­te. Im Idealfall läuft OpenClaw in einer iso­lier­ten Umgebung wie einem Container oder einer VM.

Schritt 2: Vor­aus­set­zun­gen

Bevor die Ein­rich­tung beginnt, sollten einige Grund­be­din­gun­gen erfüllt sein:

  • Ein un­ter­stütz­tes Be­triebs­sys­tem: Linux, macOS oder Windows
  • Eine funk­tio­nie­ren­de Terminal- be­zie­hungs­wei­se Shell-Umgebung wie WSL2, SSH oder Docker
  • In­ter­net­zu­gang für die Erst­in­stal­la­ti­on von OpenClaw und Ollama
  • Genügend Ar­beits­spei­cher sowie CPU- und GPU-Res­sour­cen: Für größere Modelle sind min­des­tens 8 bis 16 GB RAM, optional 12 GB VRAM und ein Prozessor auf der Leis­tungs­stu­fe eines Intel Core i5 oder AMD Ryzen 5 empfohlen

OpenClaw benötigt außerdem Node.js 22 oder neuer. Bei Ver­wen­dung des of­fi­zi­el­len In­stal­la­ti­ons­skripts muss Node.js jedoch in der Regel nicht separat manuell in­stal­liert werden, da der Installer die Laufzeit bei Bedarf selbst ein­rich­tet.

Schritt 3: Ollama in­stal­lie­ren

Ollama ist eine LLM-Lauf­zeit­um­ge­bung, die KI-Modelle lokal ausführt. OpenClaw verbindet sich später mit Ollama, um dieses Modell für Chats, Analysen und Agen­ten­funk­tio­nen zu nutzen. Offiziell läuft Ollama auf macOS, Windows und Linux und stellt nach der In­stal­la­ti­on au­to­ma­tisch eine lokale API bereit.

Die In­stal­la­ti­on kann über die of­fi­zi­el­le Website von Ollama, oder al­ter­na­tiv direkt über das Terminal erfolgen:

Be­triebs­sys­tem In­stal­la­ti­on
Linux `curl -fsSL https://ollama.com/install.sh
macOS `curl -fsSL https://ollama.com/install.sh
Windows `iwr https://ollama.com/install.ps1

Schritt 4: OpenClaw in­stal­lie­ren

OpenClaw bildet im Setup die zentrale Aus­füh­rungs­schicht: Es nimmt später Anfragen aus der Web­ober­flä­che entgegen, lädt den Workspace mit den de­fi­nier­ten Skills, führt lokale Werkzeuge wie Shell-Befehle oder Python-Skripte aus und ko­or­di­niert den gesamten Ablauf zwischen Ober­flä­che, Agen­ten­lo­gik und Mo­dell­an­bin­dung.

Zur In­stal­la­ti­on wird unter Windows der folgende Befehl im Terminal ein­ge­ge­ben:

iwr -useb https://openclaw.ai/install.ps1 | iex
bash

In Linux- oder macOS-Systemen lautet der ent­spre­chen­de Befehl:

curl -fsSL https://openclaw.ai/install.sh | bash
bash

Danach kann der On­boar­ding-Prozess gestartet werden:

openclaw onboard --install-daemon
bash
Hinweis

Nach der In­stal­la­ti­on können die folgenden drei Befehle verwendet werden, um den aktuellen Stand zu checken:

  • openclaw doctor: Prüft, ob es Kon­fi­gu­ra­ti­ons­feh­ler gibt
  • openclaw status: Zeigt den Gateway-Status an
  • openclaw dashboard: Öffnet das Dashboard im Browser

Schritt 5: On­boar­ding

Beim On­boar­ding hilft OpenClaw Ihnen, auf Ihrem Rechner eine lokale KI-Umgebung ein­zu­rich­ten. Der Prozess leitet Sie durch eine Reihe von Aus­wahl­mög­lich­kei­ten, um die Ein­rich­tung möglichst einfach zu machen.

Bild: OpenClaw-Onboarding
OpenClaw führt Sie in Ihrem Terminal durch das On­boar­ding

Dabei wird ein lokales Gateway ein­ge­rich­tet – eine kleine Schnitt­stel­le, über die Programme mit der KI kom­mu­ni­zie­ren können. Dieses Gateway läuft stan­dard­mä­ßig nur auf Ihrem Rechner, wodurch kein Zugriff von außen möglich ist.

In diesem Prozess richten Sie auch direkt das Modell ein. Für größere Kon­text­fens­ter sind bei komplexen Agent-Workflows 64.000 AI-Tokens hilfreich. Unterhalb dieser Grenze kann der Agent bei mehr­stu­fi­gen Aufgaben den Überblick über Ge­sprächs­ver­lauf, Da­tei­in­hal­te und In­struk­tio­nen verlieren. Typische Tool-fähige Modelle aus Ollama sind unter anderem:

  • qwen3-coder
  • glm-4.7-flash
  • gpt-oss:20b
  • qwen3:8b

Falls das ge­wünsch­te Modell nicht zur Auswahl steht, kann es auch manuell gesucht werden. Aktuell lädt OpenClaw für Ollama au­to­ma­tisch das Modell glm-4.7-flash herunter und stellt es ein.

Zum Schluss wird das Gateway mit einem Port, einer lokalen Bindung und einem Zu­griffsto­ken kon­fi­gu­riert, damit nur au­to­ri­sier­te Programme auf die KI zugreifen können.

Schritt 6: Messaging-Kanal verbinden und Web Search ein­rich­ten

Eines der Haupt­merk­ma­le von OpenClaw ist die Anbindung an Messaging-Dienste, über die Sie Aufgaben direkt aus WhatsApp, Telegram, Slack, Discord oder iMessage an den lokalen Agenten schicken können. Die Ein­rich­tung eines Kanals erfolgt ebenfalls noch im On­boar­ding-Prozess, kann aber auch nach­ge­holt werden:

openclaw channels list
openclaw channels add
bash

Der in­ter­ak­ti­ve Assistent führt Sie durch die platt­form­spe­zi­fi­sche Au­then­ti­fi­zie­rung:

  • WhatsApp: QR-Code scannen über die „Geräte ver­knüp­fen“-Funktion
  • Telegram: Bot-Token eingeben (über @BotFather erstellt)
  • Slack / Discord: OAuth-Au­then­ti­fi­zie­rung über einen Browser-Link
  • iMessage: Nur auf macOS, erfordert aktive iMessage-Anmeldung

Sobald ein Kanal verbunden ist, kann man Aufgaben direkt aus der je­wei­li­gen App an OpenClaw schicken. Der Agent ver­ar­bei­tet sie dann lokal mit dem kon­fi­gu­rier­ten Ollama-Modell.

Nach der Auswahl des Messaging-Dienstes bittet Sie OpenClaw, einen Web Search Service anzugeben. Dabei können Sie bei­spiels­wei­se ein be­stehen­des Gemini-Abon­ne­ment per API-Code mit OpenClaw verbinden, um die On­line­su­che zu ge­währ­leis­ten.

Schritt 7: Skills ein­rich­ten

Workspace Skills erweitern OpenClaw um eigene, lokal ver­füg­ba­re Fä­hig­kei­ten. Technisch besteht ein Skill aus einem eigenen Ordner innerhalb des Workspace, der min­des­tens eine Datei namens SKILL.md enthält. Diese Datei kom­bi­niert YAML-Front­mat­ter für die Metadaten mit Markdown-An­wei­sun­gen für das Verhalten des Agenten. OpenClaw lädt solche Workspace-Skills aus dem Skill-Ver­zeich­nis des Workspace und kann Än­de­run­gen daran au­to­ma­tisch erkennen, wenn das Be­ob­ach­ten von Skills aktiviert ist. Workspace-Skills sind besonders nützlich, um dem Agenten wie­der­keh­ren­de Aufgaben, be­vor­zug­te Ar­beits­wei­sen oder pro­jekt­spe­zi­fi­sches Wissen mit­zu­ge­ben.

Beim On­boar­ding sind bereits einige Skills vorhanden, die direkt aus­ge­wählt und ein­ge­stellt werden können. Darunter bei­spiels­wei­se eine Ver­knüp­fung mit dem Google-Ökosystem, eine Sprache-zu-Text-API oder ein Agent, der Inhalte zu­sam­men­fasst.

Bild: OpenClaw-Skills
Beim On­boar­ding stehen bereits eine Reihe von Skills zur Verfügung

Eigene Skills werden in der Regel unter ~/.openclaw/workspace/skills/ angelegt. Für einen ersten pra­xis­na­hen An­wen­dungs­fall bietet sich zum Beispiel ein Skill an, der aus Rohn­o­ti­zen struk­tu­rier­te Be­spre­chungs­no­ti­zen erstellt. So erhält OpenClaw eine klar de­fi­nier­te Aufgabe, die im Alltag tat­säch­lich nützlich ist, ohne bereits komplexe Workflow-Logik oder direkte Tool-Wei­ter­lei­tung zu benötigen:

mkdir -p ~/.openclaw/workspace/skills/meeting-notes
nano ~/.openclaw/workspace/skills/meeting-notes/SKILL.md
bash

In diese Datei kann an­schlie­ßend folgende Skill-De­fi­ni­ti­on eingefügt werden:

---
name: meeting_notes
description: Erstellt aus Rohnotizen strukturierte Besprechungsnotizen mit Aufgaben und offenen Punkten.
---
# Meeting Notes Skill
Nutze diesen Skill, wenn der Nutzer unsortierte Besprechungsnotizen,
Stichpunkte oder Gesprächsmitschnitte in eine klare Zusammenfassung
überführen möchte.
Deine Aufgabe:
- Fasse die wichtigsten Themen in wenigen Sätzen zusammen.
- Erstelle eine Liste der besprochenen Entscheidungen.
- Trenne klar zwischen Aufgaben, offenen Fragen und nächsten Schritten.
- Formuliere sachlich, präzise und gut lesbar.
- Wenn Informationen fehlen oder unklar sind, kennzeichne diese deutlich.
Gewünschtes Ausgabeformat:
1. Kurzfassung
2. Entscheidungen
3. Aufgaben
4. Offene Fragen
5. Nächste Schritte
markdown

Sobald die Datei ge­spei­chert ist, erkennt OpenClaw den neuen Skill au­to­ma­tisch im Workspace. Wenn die Skill-Be­ob­ach­tung aktiviert ist, werden Än­de­run­gen an der SKILL.md sogar ohne Neustart des Gateways über­nom­men.

Schritt 8: Hooks ak­ti­vie­ren

Hooks sind in OpenClaw ein er­wei­ter­ba­res, er­eig­nis­ge­steu­er­tes Au­to­ma­ti­sie­rungs­sys­tem. Sie er­mög­li­chen es, au­to­ma­tisch bestimmte Aktionen aus­zu­füh­ren, sobald ein Agent einen Befehl ausführt oder ein be­stimm­tes Ereignis eintritt. OpenClaw erkennt Hooks selbst­stän­dig, wenn sie in den vor­ge­se­he­nen Ver­zeich­nis­sen abgelegt werden, und sie können an­schlie­ßend über die Kom­man­do­zei­le verwaltet werden.

Stan­dard­mä­ßig bietet OpenClaw im On­boar­ding vier Hooks an, die direkt aktiviert werden können:

  • session-memory: Speichert au­to­ma­tisch den Kontext Ihrer aktuellen Sitzung im Agent-Workspace (~/.openclaw/workspace/memory/), sobald Sie den Befehl /new ausführen.
  • bootstrap-extra-files: Lädt beim Start eines Agenten zu­sätz­li­che Dateien in den Workspace, basierend auf vorher de­fi­nier­ten Pfaden oder Da­tei­mus­tern.
  • command-logger: Pro­to­kol­liert alle aus­ge­führ­ten Befehle und speichert sie in der Logdatei ~/.openclaw/logs/commands.log.
  • boot-md: Führt beim Start des Gateways au­to­ma­tisch eine BOOT.md-Datei aus, in der Start­an­wei­sun­gen oder In­itia­li­sie­run­gen für den Agenten stehen können.

Die gesamte Liste an Hooks lässt sich auch im Nach­hin­ein noch über openclaw hooks list ausgeben. Einzelne Hooks werden über den Befehl openclaw hooks enable xy aktiviert.

Schritt 9: Gateway starten

Erst nachdem OpenClaw in­stal­liert, Ollama ein­ge­rich­tet, das Modell geladen und die Kon­fi­gu­ra­ti­on gesetzt wurde, geht es ans Gateway:

openclaw gateway --port 18789
bash

Mit diesem Befehl wird das Gateway lokal gestartet und stellt das Dashboard unter der Stan­dard­adres­se http://127.0.0.1:18789 bereit.

Ob der Dienst korrekt läuft, lässt sich zu­sätz­lich prüfen mit:

openclaw gateway status
bash

Als gesunde Basis gelten dabei ins­be­son­de­re die Meldungen „Runtime: running“ und „RPC probe: ok“.

Schritt 10: Dashboard testen

Da die In­ter­ak­ti­on mit dem Bot haupt­säch­lich über die ein­ge­rich­te­ten Messaging-Dienste abläuft, ist das in­te­grier­te Dashboard kein not­wen­di­ger Be­stand­teil des laufenden Betriebs. Für die erste In­be­trieb­nah­me ist eine kurze Be­gut­ach­tung aber dennoch sinnvoll: Es zeigt auf einen Blick, ob das Gateway läuft, ob das Modell korrekt erkannt wurde und ob die Kon­fi­gu­ra­ti­on valide ist. Wer OpenClaw auf einem Desktop-Rechner betreibt, kann es auch als ge­le­gent­li­ches Dia­gno­se­werk­zeug nutzen.

Bild: OpenClaw-Dashboard
Über das Dashboard können Sie OpenClaw in Ihren Browser managen

Das Dashboard lässt sich entweder direkt im Browser öffnen oder per CLI aufrufen:

openclaw dashboard
bash

Al­ter­na­tiv wird die Web­ober­flä­che direkt über die Gateway-Adresse http://127.0.0.1:18789 geöffnet. Falls beim ersten Aufruf eine Au­then­ti­fi­zie­rung verlangt wird, kann das Gateway-Token aus­ge­le­sen werden:

openclaw config get gateway.auth.token
bash

Dieses Token wird dann im Control UI hin­ter­legt. Lokale Ver­bin­dun­gen über 127.0.0.1 werden in der Regel au­to­ma­tisch ak­zep­tiert. Bei Zugriffen von anderen Geräten kann zu­sätz­lich ein Pairing notwendig sein:

openclaw devices list
openclaw devices approve <requestId>
bash

Damit wird der neue Browser oder das neue Gerät als ver­trau­ens­wür­dig markiert. Diese zu­sätz­li­che Freigabe ist besonders sinnvoll, weil das Dashboard nicht nur ein Chat­fens­ter, sondern eine ad­mi­nis­tra­ti­ve Ober­flä­che mit Zugriff auf Skills, Kon­fi­gu­ra­ti­on und Aus­füh­rungs­frei­ga­ben ist.

Schritt 11: OpenClaw in­di­vi­dua­li­sie­ren

Damit ist die Grund­ein­rich­tung von OpenClaw mit Ollama ab­ge­schlos­sen. Das Gateway läuft lokal, das Modell ist ein­ge­bun­den und der Agent kann über Messaging-Dienste oder das Dashboard an­ge­spro­chen werden. In dieser Grund­kon­fi­gu­ra­ti­on lässt sich OpenClaw bereits produktiv nutzen, um Nach­rich­ten zu ana­ly­sie­ren, In­for­ma­tio­nen zu­sam­men­zu­fas­sen oder einfache Aufgaben au­to­ma­tisch ausführen zu lassen.

Das System ist jedoch bewusst modular aufgebaut und bietet deutlich mehr Mög­lich­kei­ten als das hier gezeigte Ba­sis­set­up. Zu den typischen Er­wei­te­run­gen gehören unter anderem:

  • Weitere Skills ent­wi­ckeln: Wie­der­keh­ren­de Aufgaben wie Meeting-Zu­sam­men­fas­sun­gen, Code­ana­ly­se oder Do­ku­ment­struk­tu­rie­rung als eigene Skills de­fi­nie­ren und dem Agenten dauerhaft zur Verfügung stellen.
  • Au­to­ma­ti­sie­run­gen über Hooks aufbauen: Er­eig­nis­se wie neue Sitzungen, Be­fehls­aus­füh­run­gen oder Agen­ten­starts zu au­to­ma­ti­schen Aktionen de­fi­nie­ren.
  • Lokale Werkzeuge in­te­grie­ren: OpenClaw kann Shell-Befehle, Python-Skripte oder eigene Tools ausführen. Dadurch wird der Agent zu einer Art lokalen Au­to­ma­ti­sie­rungs­platt­form.
  • Mehrere Modelle kom­bi­nie­ren: Neben dem primären Modell können Fallback-Modelle oder spe­zia­li­sier­te Modelle für bestimmte Aufgaben kon­fi­gu­riert werden.
  • Weitere Messaging-Dienste anbinden: Zu­sätz­li­che Kanäle wie Slack, Discord oder Telegram lassen sich parallel betreiben, sodass mehrere Geräte oder Teams mit dem lokalen Agenten arbeiten können.
  • Workspace und Wis­sens­ba­sis erweitern: Dokumente, Pro­jekt­da­tei­en oder Notizen können im Workspace abgelegt werden, sodass der Agent sie als Kontext für seine Aufgaben nutzen kann.
  • Remote-Zugriff ein­rich­ten: Über Lösungen wie Tailscale oder Reverse Proxies kann das Dashboard auch sicher von anderen Geräten aus er­reich­bar gemacht werden.
  • In­spi­ra­ti­on suchen: OpenClaw stellt mit der „What People Are Building“-Website eine eigene Übersicht bereit, in der gezeigt wird, was andere Nut­ze­rin­nen und Nutzer mit dem Tool machen.

Das hier gezeigte Setup bildet also nur den Ein­stiegs­punkt. Sobald OpenClaw stabil läuft, lohnt es sich, die eigenen Workflows schritt­wei­se durch zu­sätz­li­che Skills, Au­to­ma­ti­sie­run­gen oder neue In­te­gra­tio­nen zu erweitern. Gerade in Kom­bi­na­ti­on mit lokalen Modellen über Ollama entsteht so eine flexible, voll­stän­dig selbst gehostete KI-Ar­beits­um­ge­bung, die sich genau an die eigenen An­for­de­run­gen anpassen lässt.

Zum Hauptmenü