SchwachstellenHackerangriffeMalware

Vercel bestätigt weitere kompromittierte Konten nach Context.ai-Sicherheitsleck

Vercel bestätigt weitere kompromittierte Konten nach Context.ai-Sicherheitsleck
Zusammenfassung

Der Cloud-Deployment-Service Vercel hat bei einer erweiterten Untersuchung einer Sicherheitspanne weitere kompromittierte Kundenkonten identifiziert. Der Vorfall war ursprünglich durch einen Angriff auf Context.ai ausgelöst worden, nachdem ein Vercel-Mitarbeiter die KI-basierte Office Suite nutzte. Der Angreifer gelang es, dessen Google-Workspace-Account zu übernehmen und von dort aus in Vercels interne Systeme einzudringen. Ermittlungen deuten darauf hin, dass ein Context.ai-Mitarbeiter im Februar 2026 mit der Lumma-Stealer-Malware infiziert wurde, nachdem er nach Roblox-Exploits suchte – möglicherweise der Auslöser des gesamten Angriffsverlaufs. Zusätzlich entdeckte Vercel ältere, unabhängige Kompromittierungen durch Social Engineering oder Malware. Obwohl die genaue Anzahl betroffener Kunden nicht offengelegt wurde, zeigt der Incident ein kritisches Sicherheitsrisiko: Die unbewachte Nutzung von Cloud-KI-Tools (Shadow AI) und OAuth-Integrationen ermöglichten dem Angreifer, schnell in geschützte Umgebungen vorzudringen. Für deutsche Unternehmen und Behörden ist dies eine Warnung, dass populäre Cloud-Services und KI-Tools strengerer Kontrolle unterliegen müssen, und dass die Geschwindigkeit moderner Cyberangriffe Verteidigungsstrategien grundlegend verändern erfordert.

Vercel hat am Mittwoch eine deutlich beunruhigendere Bilanz seines Sicherheitsvorfalls vorgelegt. Bei der Ausweitung der Ermittlungen entdeckte das Unternehmen nicht nur die bereits bekannten, durch den Context.ai-Kompromiss verursachten Vorfälle, sondern auch weitere gehackte Konten, die bereits vor diesem Incident existierten. Der Sicherheitsfirma Hudson Rock gelang es, die Angriffskette bis zu ihrem wahren Ursprung zurückzuverfolgen.

Alles begann mit einer harmlosen Suchanfrage: Ein Mitarbeiter von Context.ai suchte nach Roblox-Exploits und Auto-Farm-Skripten – und lud sich dabei unwissentlich die Malware Lumma Stealer herunter. Diese Infektion fand im Februar 2026 statt und markiert den Startpunkt einer beispiellosen Angriffskette. Der Schädling stahl Zugangsdaten und Tokens, darunter auch die Anmeldedaten für Google Workspace und letztlich Vercel-Konten.

Von dort aus navigierten die Angreifer durch Vercels Infrastruktur und gelangten an Umgebungsvariablen – eine kritische Sicherheitslücke, da diese oft sensible Daten wie API-Keys und Datenbankverbindungen enthalten. Zwar betont Vercel, dass nur “nicht-sensitive” Umgebungsvariablen entschlüsselt wurden, doch die bloße Tatsache, dass Angreifer so tief eindringen konnten, ist alarmierend.

Besonders bemerkenswert ist, dass Vercel-Mitarbeiter anscheinend die Context.ai Office Suite – ein KI-Tool – verwendeten, ohne dass dies durch formale IT-Prozesse genehmigt war. Dies ist ein klassisches Fall von “Shadow AI”: Mitarbeiter nutzen unapproved KI-Dienste und umgehen damit Sicherheitsvorkehrungen.

Vercel-CEO Guillermo Rauch deutete an, dass das Bedrohungsausmaß noch größer sein könnte. Bedrohungsdaten zeigen, dass Malware gezielt zur Diebstahl von wertvollen Tokens verteilt wurde – nicht nur für Vercel, sondern auch für andere Cloud-Dienste und SaaS-Plattformen.

Für deutsche Unternehmen und Entwickler, die auf Vercel hosten, empfiehlt sich sofortige Aufmerksamkeit: API-Keys sollten überprüft und ggf. neu generiert werden. OAuth-Integrationen müssen strikter kontrolliert werden. Die Sicherheitsfirma Tanium warnt zurecht: OAuth-Integrationen erben Vertrauen vom Nutzer und der Organisation – wenn Angreifer diese missbrauchen, umgehen sie oft kritische Sicherheitskontrollen.