AI Insight #4: Sandboxing Agents

3. März 2026

Mit zunehmender Autonomie von KI-Agenten, wie OpenClaw, ClaudeCode und OpenCode ist Sandboxing von entscheidender Bedeutung, um das Risiko schädlicher Aktionen zu minimieren.

Sandboxing-Ansätze isolieren Agenten von sensiblen Systemen, ohne dass jede einzelne Aktion einer menschlichen Freigabe bedarf.

𝗪𝗶𝗲 𝗴𝗲𝗵𝘁 𝗧𝗡𝗚 𝗯𝗲𝗶𝗺 𝗦𝗮𝗻𝗱𝗯𝗼𝘅𝗶𝗻𝗴 𝘃𝗼𝗿?
🔹Einschränken, was der Agent sehen kann. Er erhält nur Zugriff auf die Dateien, die er benötigt. Wenn er keine vertraulichen Daten und Anmeldedaten lesen kann, kann er diese auch nicht an Dritte weitergeben.
🔹Den Webzugriff einschränken und überwachen. Der gesamte Datenverkehr des Agenten wird über einen Proxy geleitet. Dadurch lassen sich Datenlecks leichter erkennen und reduzieren.
🔹Die Ausführungsumgebung beschränken. Dies begrenzt den Schaden, falls der Agent bösartigen Code ausführt.

Zu diesem Zweck kommen verschiedene Technologien zum Einsatz: Einschränkungen des Dateisystems (MacOS App Sandbox, Bubblewrap), Container oder VMs. Für bessere Isolation, kann der Agent auf einem separaten Gerät gehostet werden, z.B. On-Prem oder in der Cloud.

Es reicht jedoch nicht aus, sich nur auf eine Technologie zu verlassen - vielmehr ist es entscheidend, mögliche Fehlerquellen und Angriffsarten zu durchdenken.

Keine Sandbox ist vollkommen undurchlässig, und ein bösartiger Agent kann clever genug sein, um auch die kleinste Lücke zu finden. Je sicherer die Sandbox jedoch ist, desto eher kann man dem Agenten vertrauen und ihn arbeiten lassen, ohne jeden einzelnen Toolaufruf manuell zu genehmigen.