Die rasante Verbreitung von Künstlicher Intelligenz und insbesondere von Generativer KI (Gen AI) revolutioniert nicht nur Geschäftsprozesse, sondern verändert auch die Spielregeln der Cybersicherheit. Die neue Studie „New defenses, new threats: What AI and Gen AI bring to cybersecurity“ des Capgemini Research Institute zeigt, wie tiefgreifend diese Technologien die Sicherheitslandschaft verändern. Doch mit der Innovation kommen auch neue Bedrohungen – Unternehmen stehen vor einem Wettlauf, ihre Abwehrstrategien anzupassen. Mehr als zwei Drittel der befragten Organisationen geben an, KI als Schlüsseltechnologie für die Zukunft ihrer Sicherheitsmaßnahmen zu priorisieren. Ihr Ziel: Bedrohungen nicht nur schneller zu erkennen, sondern ihnen auch einen Schritt voraus zu sein.
Generative Künstliche Intelligenz: Neue Herausforderung für die Cyberabwehr
Gen AI, eine Technologie, die kreative Inhalte wie Texte, Bilder oder Videos generieren kann, birgt ein gewaltiges Potenzial – für Cyberkriminelle ebenso wie für Unternehmen. Die Studie identifiziert drei zentrale Risikobereiche, die dringend adressiert werden müssen:
- Angriffe auf einem neuen Niveau
Mit Gen AI erstellen Angreifer hochentwickelte Phishing-Nachrichten, täuschend echte Deepfakes oder perfide Social-Engineering-Taktiken, die selbst geschulte Sicherheitsexperten herausfordern. - Wachsende Angriffsflächen
Der unkontrollierte Einsatz von KI-Tools durch Mitarbeitende – sogenannte Shadow AI – öffnet Tür und Tor für neue Schwachstellen. Diese Bereiche entziehen sich häufig der IT-Kontrolle und erhöhen das Risiko von Sicherheitslücken. - Gefährdung über den gesamten Lebenszyklus
Von der Entwicklung über den Einsatz bis zur Wartung: Fehlende Schutzmaßnahmen im Lifecycle-Management von Gen-AI-Lösungen schaffen eine gefährliche Angriffsoberfläche, die gezielt ausgenutzt werden kann.
Bedrohungen nehmen massiv zu
Erschreckend: 97 % der befragten Unternehmen berichteten im vergangenen Jahr von Sicherheitsvorfällen, die direkt mit Generativer KI in Verbindung stehen. Risiken wie Prompt Injection-Angriffe, manipulierte Daten oder absichtlich fehlerhafte Inhalte zeigen, wie umfassend diese Technologien ausgenutzt werden können. Zwei Drittel der Unternehmen (67 %) befürchten zudem Datenverluste bei der Nutzung von KI-Trainingsmodellen – eine reale Bedrohung für vertrauliche Informationen.
Finanzielle Verluste durch generative KI
Ein besonders drastisches Beispiel für die Risiken von Gen AI sind Deepfake-Angriffe. Diese täuschend echt aussehenden Video- und Audiodateien haben bereits bei 43% der befragten Unternehmen zu finanziellen Verlusten geführt – oft in Millionenhöhe. Angesichts dieser Gefahren planen fast 60 Prozent der Unternehmen, ihre Cybersicherheitsbudgets deutlich zu erhöhen, um der wachsenden Bedrohung durch Generative AI zu begegnen.
Ein strategischer Vorteil: Wie KI die Cybersicherheit stärkt
Trotz der Risiken bietet die KI den Unternehmen beispiellose Möglichkeiten zur Verbesserung ihrer Cybersicherheit. Die Fähigkeit, riesige Datenmengen in kürzester Zeit zu analysieren und Muster zu erkennen, hebt die Sicherheitsmaßnahmen auf ein neues Niveau. Seit der Einführung von KI in ihren Security Operations Centers (SOCs) berichten 60 % der Unternehmen, dass sie Angriffe mindestens 5 % schneller erkennen können. Gleichzeitig konnte fast die Hälfte der Befragten die Reaktionszeit auf Vorfälle deutlich verkürzen. Die wahre Stärke von KI liegt jedoch in ihrer Fähigkeit, Bedrohungen nicht nur reaktiv, sondern auch proaktiv zu begegnen: Unternehmen können potenzielle Angriffe vorhersagen und ihre Abwehrstrategien frühzeitig anpassen. „Der Einsatz von KI und Generativer KI ist ein Balanceakt zwischen unendlichem Potenzial und erheblichen Risiken“, erklärt Mete Boz, Cybersecurity-Experte bei Capgemini. „Damit diese Technologien ihr volles Potenzial entfalten können, braucht es robuste Frameworks, eine leistungsstarke Infrastruktur und ethische Leitlinien. Vor allem aber sind die Mitarbeitenden gefragt: Schulungen und Sensibilisierung sind entscheidend, um Schwachstellen zu schließen.“
Schlüsselfaktoren für die Zukunft: Technik, Struktur und Mensch
Generative KI verändert die Cybersicherheit grundlegend und eröffnet sowohl neue Chancen als auch erhebliche Risiken. Der Einsatz von KI-gestützten Werkzeugen wie ChatGPT und generativen Modellen ermöglicht es Unternehmen, Anomalien schneller zu erkennen, Schwachstellen zu priorisieren und Angriffsvektoren automatisch zu analysieren. Diese Technologien können die Effizienz und Genauigkeit von Sicherheitsstrategien erhöhen, indem sie große Datenmengen in Echtzeit verarbeiten und potenzielle Bedrohungen vorhersagen. Gleichzeitig bergen generative KI-Lösungen auch Risiken: Cyberkriminelle nutzen KI, um ausgefeiltere Angriffe wie Phishing-Mails oder Malware zu entwickeln. Die Automatisierung solcher Angriffe stellt Unternehmen vor neue Herausforderungen, insbesondere im Bereich der Bild- und Spracherkennung.
Die Befragten der aktuellen Capgemini-Studie betonen, dass KI nicht nur ein Werkzeug zur Verbesserung von Sicherheitsstrategien ist, sondern auch ein potenzieller Angriffsvektor, der transparente Richtlinien und robuste Sicherheitsframeworks erfordert. Unternehmen, die generative KI verantwortungsvoll einsetzen und dabei auf Mitarbeiterschulungen und ethische Richtlinien setzen, können nicht nur ihre Sicherheitsstrategien stärken, sondern auch die Angriffsfläche reduzieren. 2025 wird der Einsatz generativer KI in der Cybersicherheit weiter an Bedeutung gewinnen. Organisationen, die KI-basierte Technologien wie maschinelles Lernen, Deep Learning und generative Modelle frühzeitig integrieren, sind besser gerüstet, um auf immer komplexere Bedrohungen zu reagieren und ihre Produktivität zu steigern. Das Gleichgewicht zwischen Innovation und Risiko bleibt der Schlüssel für eine erfolgreiche Anwendung.