Cloud-SicherheitKI-SicherheitSchwachstellen

Vertex AI: Zu breite Standardrechte gefährden KI-Agenten in Google Cloud

Vertex AI: Zu breite Standardrechte gefährden KI-Agenten in Google Cloud
Zusammenfassung

Google hat ein erhebliches Sicherheitsproblem bei seiner KI-Plattform Vertex AI identifiziert, das Unternehmen weltweit betrifft. Sicherheitsforscher von Palo Alto Networks haben entdeckt, dass KI-Agenten in Vertex AI mit zu umfangreichen Standardberechtigungen ausgestattet sind, die Angreifer ausnutzen können. Durch die Kompromittierung eines Agenten könnten Cyberkriminelle auf sensible Daten zugreifen, in interne Infrastrukturen eindringen und sogar die Google-eigenen Systeme angreifen. Das besondere Risiko liegt in den sogenannten Per-Project, Per-Product Service Accounts, die automatisch mit jedem Agent deployten werden und Zugriff auf Google Workspace-Services wie Gmail und Google Drive ermöglichen. Für deutsche Unternehmen und Behörden ist dies besonders relevant, da viele bereits KI-Agenten zur Automatisierung von Workflows einsetzen. Das Problem transformiert vertrauenswürdige KI-Tools in potenzielle Insider-Bedrohungen. Google hat bereits seine Dokumentation aktualisiert und empfiehlt Organisationen, benutzerdefinierte Service Accounts mit minimalen Berechtigungen zu konfigurieren. Die Sicherheitslücke unterstreicht die Notwendigkeit, KI-Sicherheit ernst zu nehmen und strenge Zugriffskontrollrichtlinien zu implementieren.

Das Sicherheitsrisiko betrifft die sogenannte Per-Project, Per-Product Service Agent (P4SA) – einen standardmäßigen Service-Account, der automatisch mit jedem bereitgestellten Vertex-AI-Agenten verbunden ist. Die Palo-Alto-Forscher zeigten in ihrer Proof-of-Concept-Attacke, wie ein Angreifer diesen Account kompromittieren und die darin gespeicherten Zugriffstoken extrahieren kann. Mit diesen Credentials ließe sich nicht nur auf sensitive Bereiche der Cloud-Umgebung des Kunden zugreifen, sondern auch proprietäre Container-Images aus Googles eigener Infrastruktur herunterladen. Noch beängstigender: Die Standard-Berechtigungen könnten sich bis in die Google-Workspace-Umgebung erstrecken – einschließlich Gmail, Google Calendar und Google Drive.

“Dieses Ausmaß an Zugriff verwandelt den KI-Agenten von einem hilfreichen Werkzeug in eine interne Bedrohung”, schrieb Palo-Alto-Forscher Ofir Shaty in seinem Bericht. Die Entdeckung offenbart ein grundlegendes Paradoxon: Je breiter die Berechtigungen eines Agenten ausfallen, desto effektiver kann er Aufgaben erfüllen – aber desto gefährlicher wird er im Fall eines Missbrauchs.

Google reagierte prompt auf die Offenlegung. Das Unternehmen aktualisierte seine offizielle Dokumentation und empfiehlt nun explizit die Implementierung des Bring-Your-Own-Service-Account-Ansatzes (BYOSA). Dieser ermöglicht es Organisationen, das Least-Privilege-Prinzip durchzusetzen und Agenten nur die absolut notwendigen Berechtigungen zu gewähren. Eine Google-Sprecherin betonte: “Ein wichtiges Best-Practice für die Sicherung von Agent Engine ist die Verwendung eines eigenen Service-Accounts mit minimal erforderlichen Rechten.”

Für deutsche Unternehmen stellt diese Problematik eine wichtige Herausforderung dar. Besonders in Branchen wie Finanzwesen, Gesundheitswesen und Industrie, wo KI-Agenten zunehmend in kritische Prozesse integriert werden, können Sicherheitslücken dieser Art erhebliche Konsequenzen haben – nicht nur für die Datensicherheit, sondern auch für die Einhaltung regulatorischer Anforderungen wie der DSGVO.

Ian Swanson, VP of AI Security bei Palo Alto Networks, bringt es auf den Punkt: “Agenten markieren einen Paradigmenwechsel von KI, die spricht, zu KI, die handelt.” Das bedeutet, dass die Sicherheitsrisiken sich fundamental verändern. Nicht mehr nur Datenlecks sind die Gefahr – sondern auch unbefugte Handlungen durch die Agenten selbst. Security-Teams müssen KI-Agenten in ihren Umgebungen identifizieren, vor dem Einsatz bewerten und während der Laufzeit schützen können. Die Empfehlung lautet klar: Keine Sicherheit ohne Sicherheit der KI selbst.