Anthropic erweitert Claude um Funktionen, mit denen die KI am Computer handeln kann. In Claude Code und im neuen Arbeitsmodus Cowork soll sie Apps öffnen, im Browser arbeiten und Tabellen ausfüllen. Für dich ist das mehr als ein Produktupdate, denn bei “KI Computer steuern” geht es sofort um Zugriff, Fehlerfolgen und Vertrauen. Der aktuelle Stand wirkt nützlich für klar umrissene Aufgaben, ist laut den verfügbaren Quellen aber noch ein Forschungs- und Vorschauformat. Genau deshalb ist jetzt die wichtige Frage nicht, ob es geht, sondern wie viel Kontrolle im Alltag sinnvoll ist.
Das Wichtigste in Kürze
- Anthropic beschreibt offiziell, dass Claude in Claude Code und Cowork Computeraufgaben übernehmen kann, etwa Apps öffnen, im Web navigieren oder mit Tabellen arbeiten.
- Der Nutzen ist vor allem bei wiederkehrenden, klar begrenzten Aufgaben greifbar. Kritisch wird es, sobald Logins, sensible Dateien oder unklare Entscheidungen ins Spiel kommen.
- Unabhängige Sicherheitsforschung und Anthropics eigene Unterlagen zeigen, dass Schutzmechanismen besser werden, Computerzugriff aber weiter die riskantere Form von KI-Automatisierung bleibt.
Einleitung
Eine KI, die nicht nur antwortet, sondern deinen Rechner bedient, klingt erst einmal praktisch. Genau da beginnt aber auch das Unbehagen. Solange ein Assistent nur Text erzeugt, bleibt der Schaden bei Fehlern oft begrenzt. Wenn dieselbe KI Programme öffnet, Webseiten klickt oder Daten in eine Tabelle schreibt, landet sie viel näher an deinen echten Arbeitsabläufen. Für Entwickler, Büroangestellte und später wohl auch normale Nutzer ist das keine Nebensache, sondern eine neue Vertrauensfrage.
Beim Thema Claude geht es nach dem aktuellen Quellenstand nicht um ein allgemein freigegebenes Betriebssystem mit voller Autonomie, sondern um eine Einordnung dieser neuen Fähigkeiten. Anthropic beschreibt Computerbedienung in Claude Code und Cowork als aktuelle Funktion beziehungsweise Vorschau, teils mit Freigaben durch den Nutzer und zum Start auf macOS begrenzt. Entscheidend ist also weniger die Schlagzeile “KI kann jetzt klicken”, sondern was das im Alltag bedeutet, wo sich Zeit sparen lässt und an welcher Stelle du besser sehr früh eine Grenze ziehst.
Was Anthropic offiziell angekündigt hat
Die wichtigste Primärquelle ist Anthropics Produktankündigung zu Claude Opus 4.6. Dort beschreibt das Unternehmen, dass Claude in Cowork Aufgaben im Arbeitsalltag übernehmen kann und in Claude Code mit längeren, agentischen Abläufen zurechtkommen soll. Zusätzlich verweist die Berichterstattung darauf, dass Claude Computeraufgaben direkt ausführen kann, also etwa Apps öffnen, im Browser navigieren und Inhalte in Dokumente oder Tabellen eintragen.
Wichtig ist die genaue Einordnung. Anthropic stellt diese Fähigkeiten nicht als schrankenlose Fernsteuerung dar. Nach dem verfügbaren Stand nutzt Claude zuerst verbundene Dienste und fragt bei direkter Bedienung des Bildschirms oder einzelner Apps nach Freigaben. Das ist ein Unterschied, der im Alltag viel ausmacht. Eine KI, die bevorzugt mit angebundenen Werkzeugen arbeitet, ist leichter zu kontrollieren als ein System, das überall auf der Oberfläche frei herumklickt.
Für Leser bedeutet das vor allem zweierlei. Erstens rückt KI-Automatisierung aus dem Chatfenster in echte Arbeitsabläufe. Zweitens verschiebt sich der Maßstab, nach dem man ein Modell bewertet. Gute Antworten reichen nicht mehr. Die KI muss zuverlässig verstehen, was sie tun soll, und sie darf sich nicht von einer verwirrenden Webseite, einer mehrdeutigen Schaltfläche oder einem falschen Dateinamen aus dem Tritt bringen lassen.
Warum Computerzugriff ein anderes Risiko ist als normaler Chat
Der Sprung von “Text erzeugen” zu “im System handeln” verändert das Risiko deutlich. Sobald eine KI Maus, Tastatur, Browser oder Dateizugriff nutzt, kann ein Fehler unmittelbare Folgen haben. Dann geht es nicht mehr nur um eine schlechte Antwort, sondern um eine gelöschte Datei, eine falsch verschickte Nachricht oder eine Aktion im falschen Konto.
Anthropics System Card zu Claude Sonnet 4.5 zeigt selbst, dass genau diese Fläche anspruchsvoll bleibt. Das Dokument beschreibt Fortschritte bei Schutzmechanismen gegen missbräuchliche oder manipulierte Eingaben. Zugleich ist darin erkennbar, dass “Computer Use” im Vergleich zu anderen Werkzeugoberflächen die schwierigere Disziplin bleibt. Das passt zu einem simplen Gedanken aus dem Alltag. Auf einem echten Bildschirm ist vieles uneindeutig. Fenster überlagern sich, Buttons ändern sich, Eingaben sehen harmlos aus und können trotzdem heikel sein.
Unabhängige Forschung kommt aus einer anderen Richtung zu einem ähnlichen Punkt. In einem arXiv-Papier zu realistischen Angriffen auf Computer-Use-Agenten wird gezeigt, dass solche Systeme in komplexen Umgebungen zu schädlichen Handlungen verleitet werden können. Das muss nicht wie ein spektakulärer Hack aussehen. Schon eine manipulierte Datei, eine irreführende Anweisung auf einer Webseite oder ein unklar formulierter Auftrag reicht, damit ein Agent in die falsche Richtung läuft.
Für dich heißt das: Die spannendste Frage ist nicht, ob die KI technisch klicken kann. Die eigentlich wichtige Frage ist, ob sie den Kontext sauber versteht und ob du den Schaden begrenzen kannst, falls sie danebenliegt.
Wo sich der Zugriff lohnt und wo du ihn besser klein hältst
Nützlich ist Computerzugriff vor allem dort, wo Abläufe wiederkehren und der Spielraum klein ist. Ein Beispiel wäre, Informationen aus mehreren Quellen zusammenzutragen, sie in eine Tabelle zu schreiben und den Entwurf einer Zusammenfassung vorzubereiten. Auch in der Softwareentwicklung kann das sinnvoll sein, wenn eine KI klar definierte Schritte abarbeitet, Tests startet oder in bekannten Projektstrukturen sucht.
Schwach wird das Modell dort, wo Aufgaben vage sind oder viel implizites Wissen voraussetzen. “Organisiere meinen Tag” klingt bequem, ist aber viel heikler als “Öffne Kalender, prüfe Termin A und bereite einen Entwurf für eine Antwort vor”. Je offener die Aufgabe, desto größer wird die Wahrscheinlichkeit, dass die KI formal korrekt handelt und trotzdem am eigentlichen Ziel vorbeigeht.
Besonders vorsichtig solltest du bei vier Bereichen sein. Erstens bei Logins und Zugangsdaten. Zweitens bei Zahlungen, Bestellungen oder Vertragsaktionen. Drittens bei sensiblen Dokumenten, etwa Personal-, Finanz- oder Kundendaten. Viertens bei Kommunikation nach außen, wenn eine Nachricht direkt im Namen eines Menschen oder eines Unternehmens verschickt wird. In all diesen Fällen kann schon ein kleiner Fehler teuer oder peinlich werden.
- Sinnvoll automatisierbar sind klar beschriebene Routineaufgaben mit geringem Schaden im Fehlerfall.
- Nur unter Aufsicht taugen Aufgaben, die mehrere Apps, Konten oder Freigaben verbinden.
- Tabu bleiben besser Aktionen mit Geld, Rechten, vertraulichen Daten oder endgültigen Entscheidungen.
Der praktische Maßstab ist einfach. Wenn du eine Aufgabe auch einem neuen Kollegen nur mit kurzer Checkliste geben würdest, ist KI-Zugriff eher denkbar. Wenn du sagen würdest “Das muss man mit Erfahrung und Vorsicht selbst machen”, sollte die KI dort nicht frei arbeiten.
Was als Nächstes wahrscheinlich wird
Anthropic ist mit diesem Schritt kaum allein. Der Markt bewegt sich seit einiger Zeit weg vom reinen Chatbot hin zu Systemen, die Aufgaben ausführen. Darum dürfte sich der Wettbewerb schnell verschärfen. Andere Anbieter werden ähnliche Funktionen ausbauen, Betriebssysteme werden stärker über Rechte, Freigaben und isolierte Arbeitsbereiche nachdenken, und Unternehmenskunden werden sehr genau prüfen, welche Aufgaben sie solchen Agenten wirklich anvertrauen.
Wahrscheinlich ist auch, dass sich der Zugriff stärker staffelt. Einfache Leserechte, eng begrenzte Schreibrechte und gesonderte Freigaben für riskante Schritte sind naheliegender als freie Vollkontrolle. Genau darin liegt vermutlich die reale Zukunft dieser Werkzeuge. Nicht die KI mit Generalschlüssel, sondern die KI mit kurzer Leine und sauberem Protokoll.
Für Entwickler und Wissensarbeiter beginnt damit eine neue Phase der Automatisierung. Wer solche Systeme nutzt, wird nicht nur prompten müssen, sondern Aufgaben zuschneiden, Rechte begrenzen und Ergebnisse kontrollieren. Das klingt weniger magisch als manche Produktdemo, ist aber am Ende wahrscheinlich die vernünftigere Form von Produktivität.
Fazit
Claude zeigt, wohin sich KI-Assistenten bewegen. Weg vom Beantworten einzelner Fragen, hin zu echter Arbeit am Rechner. Genau deshalb ist die Debatte über Zugriff so wichtig. Die Technik kann bereits spürbar Zeit sparen, vor allem bei klaren Routinen. Gleichzeitig wächst das Risiko, weil Fehler nicht mehr nur auf dem Bildschirm stehen, sondern direkt im System passieren können.
Der vernünftige Umgang ist deshalb ziemlich unspektakulär. Gib einer KI so viel Zugriff, wie sie für eine konkrete Aufgabe braucht, und nicht mehr. Lass sie vorbereiten, strukturieren und abarbeiten, aber halte finale Schritte bei sensiblen Themen in menschlicher Hand. Wenn sich dieser Grundsatz durchsetzt, können Computer-Agenten nützlich werden. Wenn nicht, wird aus Bequemlichkeit schnell ein Sicherheitsproblem.
Die spannende Frage ist jetzt nicht, ob KI mehr kann, sondern wo du ihr bewusst eine Grenze setzt.