Bremer24 Logo

Claude Code bekommt Auto-Modus: KI handelt jetzt eigenständig

Sie befinden sich: Home > News Archiv > Software > Claude Code bekommt ...

Anthropic spendiert Claude Code einen Auto-Modus. Die KI entscheidet selbst, welche Aktionen sicher sind, und führt sie ohne Rückfrage aus.

Das ewige Bestätigen hat ein Ende

Wer mit KI-gestützten Coding-Tools arbeitet, kennt das Problem: Bei jedem Datei-Schreibvorgang, jedem Terminal-Befehl und jeder Änderung poppt eine Bestätigungsabfrage auf. Sicher? Wirklich sicher? Das schützt zwar vor Fehlern, bremst aber den Arbeitsfluss erheblich. Anthropic hat für sein Entwicklerwerkzeug Claude Code jetzt eine Lösung vorgestellt: den Auto-Modus. Die KI bewertet eigenständig, ob eine Aktion ungefährlich ist, und führt sie ohne Unterbrechung aus. Nur bei potenziell riskanten Operationen fragt sie noch nach.

Aktiviert wird das Ganze mit einem simplen Kommando: `claude --enable-auto-mode`. Ab diesem Moment übernimmt Claude die Risikobewertung.

Zwei Sicherheitsebenen statt blindem Vertrauen

Der Auto-Modus ist kein Freifahrtschein. Anthropic hat ein zweistufiges Prüfsystem eingebaut. Im ersten Schritt analysiert die KI, ob eine geplante Aktion tatsächlich dem entspricht, was der Nutzer erreichen will. Im zweiten Schritt sucht das System nach sogenannten Prompt Injections. Das sind versteckte Anweisungen, die sich in scheinbar harmlosen Eingaben tarnen und das Verhalten der KI manipulieren können. Erkennt Claude eine solche Manipulation, stoppt sie die Ausführung und informiert den Entwickler.

Der Unterschied zum bisherigen Ansatz ist wichtig: Es gab bereits den Befehl `dangerously-skip-permissions`, der sämtliche Sicherheitsabfragen übersprang. Praktisch, aber riskant. Der Auto-Modus trifft stattdessen differenzierte Entscheidungen. Ein Refactoring einer lokalen Datei? Läuft automatisch. Ein Befehl, der Produktionsdaten verändern könnte? Hier kommt die Rückfrage.

Die Zahlen sprechen eine deutliche Sprache

Anthopic hat Millionen von Interaktionen ausgewertet, um die Wirksamkeit des Systems zu messen. Die Ergebnisse sind bemerkenswert: Zwischen August und Dezember 2025 hat sich die Erfolgsquote bei anspruchsvollen Programmieraufgaben verdoppelt. Die Anzahl der notwendigen manuellen Eingriffe pro Sitzung sank von 5,4 auf 3,3. Die sogenannte Median-Turn-Dauer, also die Zeitspanne, in der die KI ohne menschliches Zutun arbeitet, liegt bei 45 Sekunden.

Besonders interessant: Claude schränkt sich selbst ein, wenn Unsicherheit besteht. Statt auf gut Glück weiterzuarbeiten, stellt die KI Rückfragen oder holt sich Bestätigungen. Das klingt nach einer Kleinigkeit, ist aber entscheidend für das Vertrauen in das System. Eine KI, die ihre eigenen Grenzen erkennt und kommuniziert, ist im Arbeitsalltag deutlich nützlicher als eine, die stur durcharbeitet und dabei Fehler produziert.

Wer den Auto-Modus nutzen kann

Aktuell läuft die Funktion als Research Preview. Verfügbar ist sie für Nutzer des Team-Plans. Enterprise-Kunden und API-Nutzer sollen in den nächsten Tagen folgen. Technisch setzt der Auto-Modus auf die Modelle Claude Sonnet 4.6 und Opus 4.6.

Anthopic empfiehlt ausdrücklich, die Funktion zunächst in isolierten Sandbox-Umgebungen zu testen. Das ist auch sinnvoll: Bevor man einer KI Entscheidungsfreiheit in der Produktivumgebung gibt, sollte man verstehen, wie sie in verschiedenen Szenarien reagiert. Für größere Teams bietet sich die Kombination mit rollenbasierter Zugriffssteuerung an. So lassen sich unterschiedliche Sicherheitsstufen für verschiedene Abteilungen oder Projekte definieren.

Wo der Auto-Modus seine Stärken ausspielt

Den größten Nutzen bringt der Auto-Modus bei wiederkehrenden, risikoarmen Aufgaben. Code-Refactoring gehört dazu, ebenso das Aktualisieren von Abhängigkeiten, das Erstellen von Unit-Tests oder das Umstrukturieren von Projektdateien. In diesen Bereichen sind die Risiken überschaubar, der Zeitgewinn durch wegfallende Bestätigungen aber spürbar.

Die KI kann sich durch umfangreiche Codebasen arbeiten, ohne dass der Entwickler bei jedem Schritt eingreifen muss. Wer schon einmal ein großes Refactoring mit einem KI-Tool durchgeführt hat und dabei hunderte Male auf "Ja, mach" klicken musste, weiß, wie befreiend das sein kann.

Bei sensiblen Daten, Datenbankoperationen oder produktionskritischen Systemen bleibt menschliche Kontrolle aber unverzichtbar. Der Auto-Modus ist kein Ersatz für eine durchdachte Sicherheitsarchitektur, sondern eine Ergänzung für unkritische Arbeitsbereiche.

Transparenz bleibt ein wunder Punkt

Anthopic hat bislang nicht im Detail veröffentlicht, nach welchen Kriterien das System Risiken bewertet. Welche Aktionen gelten als sicher, welche als riskant? Wo genau liegt die Grenze? Diese fehlende Transparenz stößt bei Entwicklern auf Kritik. Wer die Technologie produktiv einsetzen will, braucht nachvollziehbare Entscheidungslogiken.

Für Unternehmen in der EU kommt ein weiterer Aspekt hinzu: der AI Act. Wer KI-Systeme einsetzt, die eigenständig Entscheidungen treffen, muss diese dokumentieren und überprüfbar machen. Audit-Logs, die sämtliche KI-Aktionen protokollieren, sind hier keine Option, sondern Pflicht. Anthropic hat dazu bislang keine konkreten Werkzeuge angekündigt.

Bekannte Risiken und offene Baustellen

Prompt Injection bleibt auch mit dem Auto-Modus eine Herausforderung. Die Angriffsmethode ist vergleichsweise jung, und es gibt keinen hundertprozentigen Schutz dagegen. Anthropic hatte bei seinem KI-System Cowork kurz nach dem Start mit Isolationsproblemen zu kämpfen. Das zeigt: Auch etablierte Anbieter sind nicht immun gegen Sicherheitslücken.

Dazu kommt die grundsätzliche Frage, wie viel Autonomie man einer KI in sicherheitskritischen Werkzeugen geben sollte. IT-Sicherheitsexperten mahnen zur Vorsicht. Solange fundamentale Probleme wie Prompt Injection nicht vollständig gelöst sind, bleibt jede Form von KI-Autonomie ein kalkuliertes Risiko.

Anthopic hat kürzlich seine Responsible Scaling Policy überarbeitet. Beobachter sind gespalten: Die einen sehen darin einen pragmatischen Schritt, um Innovation zu ermöglichen. Die anderen befürchten, dass Sicherheitsstandards aufgeweicht werden, um schneller am Markt zu sein.

Teil einer größeren Vision

Der Auto-Modus steht nicht für sich allein. Er ist ein Baustein in Anthropics Strategie, bis 2026 vollständig autonome KI-Mitarbeiter zu entwickeln. Claude Code Review erkennt bereits automatisch Bugs. Mit Dispatch for Cowork lassen sich Aufgaben an spezialisierte KI-Agenten delegieren. Der Auto-Modus füllt die Lücke dazwischen: Er gibt der KI genug Spielraum für effizientes Arbeiten, behält aber die Leine in der Hand.

Der Weg von der KI als reinem Werkzeug hin zum teilautonomen Assistenten ist damit ein Stück konkreter geworden. Ob sich das System in der Breite durchsetzt, hängt davon ab, wie zuverlässig die Risikobewertung im Alltag funktioniert und ob Anthropic bei der Transparenz nachlegt. Für Entwicklerteams, die bereit sind, in geschützten Umgebungen zu experimentieren, ist der Auto-Modus schon jetzt einen Blick wert.

ohne führt auto selbst entscheidet

Kommentar schreiben

Teilen Sie uns Ihre Meinung mit. Ihr Kommentar wird nach Pruefung veroeffentlicht.

Pflichtfelder


Neusten News in der Kategorie "Software"

• Claude Chrome-Erweiterung: Sicherheitslücke erlaubte Angriff...
Eine gravierende Schwachstelle in der Claude-Erweiterung für Chrome er...
• Kritische Infrastruktur schützen: Warum Memory Safety jetzt ...
US-Behörden drängen auf einen Wandel: Memory-Safety-Fehler b...
• Diese 9 Jobs nimmt Ihnen ChatGPT ab produktiver in Minuten
ChatGPT erledigt heute schon zahlreiche Aufgaben, die sonst viel Zeit ...
• Update-Stillstand in Windows 11 24H2 Microsoft reagiert mit...
Microsoft reagiert auf ein kritisches Problem in Windows 11 Version 24...
• Sicherheitslücke in Thunderbird: Gefahr durch PDF-Download
Eine Schwachstelle im E-Mail-Programm Thunderbird erlaubt unbemerkte D...
• Windows 11 Update bringt Datei-Fortsetzung, Bildtools & Spra...
Das neue Juni-Update für Windows 11 hat mehr zu bieten als Sicher...
• Windows 10 legt trotz Support-Ende leicht zu
Trotz nahendem Support-Ende legt Windows 10 bei den Marktanteilen leic...
• Gefährliche Schwachstelle in WinRAR Update dringend nötig
Eine schwerwiegende Schwachstelle in WinRAR vor Version 7.11 erlaubt e...
• Linux 6.10: Kernel-Panics als Blue Screen of Death
Linux 6.10 bekommt eine bedeutende Neuerung: Kernel-Panics werden nun ...
• Extra-Sicherheitsupdates für Google Pixel: Schutz vor Angrif...
Nicht identifizierte Angreifer haben es derzeit auf Google-Smartphones...