NanoClaw ist das Framework, das du wählst, wenn Sicherheits-Audit der Hauptkostenfaktor in deinem Compliance-Setup ist. Wenn du Mittelständler in regulierten Branchen bedienst (Medizintechnik, Banken, Versicherungen), oder wenn deine eigene Compliance-Abteilung ein striktes Wort mitredet - NanoClaw löst das mit Architektur statt mit Versprechen.
Wer macht NanoClaw?
Mainline-Repo: github.com/nanocoai/nanoclaw · Site: nanoclaw.dev · Maintainer: Qwibit.ai-Team. NanoClaw ist nicht Teil des OpenClaw-Projekts, sondern eigenständiges, kompetitives Projekt. Im Repo finden sich Dutzende Forks - für Produktiv-Setups immer den nanocoai-Mainline referenzieren.
Architektur in Stichpunkten
- TypeScript 90 %, Node.js 20+, pnpm 10+, Agent-Runner in Bun
- Container-Isolation als Default: jeder Agent in eigenem Linux-Container, eigener Filesystem-Bereich
- Memory: SQLite, exakt zwei Files pro Session, je ein Writer - sauber konkurrenzfrei
- Skills installierbar via Slash-Commands wie
/add-<channel> - Modell-Default: Claude (Anthropic Agent SDK), Multi-Provider via Slash-Commands
- Container-Optionen: Docker Desktop/Engine, optional Apple Container auf macOS, MicroVMs
Warum Container-Isolation der Verkaufspunkt ist
Bei klassischen Agent-Frameworks läuft jeder Agent im selben Prozess- und Filesystem-Raum. Wenn ein Agent durch Prompt-Injection kompromittiert wird, kann er theoretisch auf alles zugreifen, was der Host-Prozess sieht - Files anderer Agenten, Konfiguration, API-Keys.
NanoClaw erzwingt einen anderen Default: Jeder Agent läuft in einem eigenen Linux-Container. Bash-Calls treffen den Container. Filesystem-Schreibzugriffe bleiben isoliert. Ein erfolgreicher Prompt-Injection-Angriff erreicht maximal die Daten dieses einen Agenten - nicht das gesamte System.
Für deinen Datenschutzbeauftragten heißt das: "Blast-Radius pro Sitzung sichtbar reduziert". Audit-Argumentation wird kürzer.
Killer-Features
- Core in ~500 LOC (laut Maintainer "in 8 Minuten verstehbar")
- Echte OS-Level-Isolation pro Agent
- 13 Messaging-Channels: WhatsApp, Telegram, Discord, Slack, Teams, iMessage, Matrix, Google Chat, Webex, Linear, GitHub, WeChat, Email (Resend)
- Edge-tauglich: läuft auf Mac Mini, kleinem Cloud-Server, Raspberry Pi (laut Marketing - keine offizielle Pi-Doku)
- Direkter Pfad zum Anthropic Claude Agent SDK - Claude-Code-Toolset out-of-the-box
Self-Host-Anforderungen
- macOS oder Linux (Windows via WSL2)
- Docker (Desktop oder Engine)
- Node 20+, Bun für Agent-Runner
- ~2 GB RAM reichen laut Community-Berichten für mehrere parallele Agents
Unsere Empfehlung für DACH-Setup: Hostinger KVM 2 (Frankfurt-RZ), Docker-Engine, Bun installieren, fertig. Für Compliance-kritische Setups ergänzt um Audit-Logging.
Use-Cases im DACH-Kontext
- Sicherheits-kritische Inbox-Agents (DSGVO/On-Prem)
- Isolierter Code-Execution-Agent für Kunden-Tickets - wenn Kunden Code-Snippets schicken, die geprüft werden müssen
- Edge-Deployments in Filialen / IoT-Setups
- Schnelle Bot-MVPs auf günstigen VPS
- Multi-Tenant-SaaS, wo jeder Kunde eigenen Container braucht
Vergleich: NanoClaw vs. OpenClaw vs. Hermes
| NanoClaw | OpenClaw | Hermes | |
|---|---|---|---|
| Profil | Minimalist + Sicherheit | Maximalist | Lerner |
| Codegröße Core | ~500 LOC | 500 k+ LOC | Mittel |
| Container-Isolation | Default | Optional | Optional |
| Channels | 13 | 22+ | ~7 |
| Self-Improvement | Nein | Nein | Ja |
| Self-Host-Schwierigkeit | Niedrig | Mittel-Hoch | Mittel |
| DSGVO-Audit-Pitch | Stärkster | Solide | Solide |
Wann NanoClaw die richtige Wahl ist
- Deine Compliance-Abteilung verlangt Container-Isolation
- Du baust einen Multi-Tenant-Service
- Du willst einen kleinen, lesbaren Codebase, den du selbst auditieren kannst
- Du willst direkt auf dem Anthropic Agent SDK aufsetzen
So fängst du an
- VPS / Mac Mini bereitstellen (Hostinger KVM für Cloud)
- Docker-Engine installieren
- Bun installieren (
curl -fsSL https://bun.sh/install | bash) git clone https://github.com/nanocoai/nanoclaw- Anthropic-API-Key in
.env - Container starten, ersten Channel anhängen via
/add-slacko.ä.
Setup-Hilfe: Termin buchen oder per Mail anfragen.
Häufige Fragen
Wer steht hinter NanoClaw?
Das Mainline-Repo ist nanocoai/nanoclaw vom Qwibit.ai-Team, separate Domain nanoclaw.dev. NanoClaw ist kein Sub-Projekt von OpenClaw, sondern ein eigenständiges, kompetitives Projekt mit eigener Org. Es gibt zahlreiche Forks (qwibitai, ysz, dh7) - für DACH-Setups immer den nanocoai-Mainline nutzen.
Was ist der Hauptunterschied zu OpenClaw?
NanoClaw setzt auf Container-Isolation als Default: Jeder Agent läuft in einem eigenen Linux-Container, mit eigenem Filesystem-Bereich. Bash-Calls treffen den Container, nicht den Host. OpenClaw kann das auch, aber als Option - bei NanoClaw ist es Architekturprinzip. Plus: NanoClaw-Core hat laut Maintainer ~500 LOC ("in 8 Minuten verstehbar"), OpenClaw ist deutlich umfangreicher.
Welche Modelle laufen damit?
Default ist Anthropic Claude (über das Anthropic Claude Agent SDK). OpenAI/Google/DeepSeek lassen sich via /add-opencode-Slash-Command nachziehen, lokale Modelle via /add-ollama-provider. Setzt das Anthropic SDK voraus → Modell-API-Kosten kommen on top.
Welche Hardware brauche ich?
macOS oder Linux (Windows via WSL2), Docker (Desktop oder Engine), Node 20+, Bun für Agent-Runner. RAM-Minimum offiziell nicht dokumentiert (Stand 2026-05-10). Community-Berichte: 2 GB VPS reicht für mehrere parallele Agents. Auf macOS optional Apple Container.
Streaming, MCP - unterstützt?
Streaming und MCP sind im README aktuell nicht explizit dokumentiert (Stand 2026-05-10). Da NanoClaw aber direkt auf dem Anthropic Claude Agent SDK aufsetzt, sind die zugrunde liegenden SDK-Features verfügbar - das Repo führt allerdings keine offiziellen MCP-Beispiele.
Lock-in?
MIT-Code. Anthropic-SDK-Pflicht ist die einzige Bindung - was bei Edge-Use-Cases meist gewünscht ist (man will Claude). Multi-Provider via Slash-Commands löst auch das.