Die gesetzlichen Anforderungen an Cybersicherheit werden sich in den nächsten Jahren weiter verschärfen. Insbesondere für mittelständische Unternehmen, die heute ebenso von Cyberangriffen bedroht sind wie Großkonzerne, ist jedoch etwa der Aufbau eines eigenen Security-Operation-Centers (SOC) oft zu herausfordernd. SOCs sind für die Orchestrierung von Sicherheitsstrategie, Hardware, Software, Personal und Security-Prozessen verantwortlich.
Der Markt für Fachkräfte ist hart umkämpft, und Sicherheitsexperten zu finden gleicht der Suche nach der Nadel im Heuhaufen. Rund um das Erkennen von Sicherheitsvorfällen und das schnelle Reagieren geht der Trend deshalb zu Managed Detection and Response. Traditionelle Managed-Security-Services auf Basis von Ticket-Systemen geraten derzeit an ihre Grenzen. Unternehmen sollten deshalb die Entwicklung bei integrierten, Cloud- und KI-basierten Plattformen für die Cybersicherheit genau verfolgen.
Security Services: Suche nach Schwachstellen
Ein wichtiger Teilbereich der Sicherheitsstrategie sind Penetrationstests (Pentesting). Im Sinne eines „freundlichen Hacks“ werden Cyberangriffe auf Anwendungen oder das Netzwerk simuliert. Das Ziel: proaktiv mögliche Schwachstellen aufzudecken, ihr Risikopotenzial zu bewerten und Lösungsvorschläge für das Schließen der Sicherheitslücken zu machen. In der Praxis werden Penetrationstests oft nur in großen Zeitabständen durchgeführt, beispielsweise um jährlich die Compliance mit gesetzlichen Security-Vorgaben nachzuweisen. Kontinuierliche Pentests sind bisher schlicht an den fehlenden Ressourcen gescheitert – sie erfordern einen hohen manuellen Aufwand. Seit der Veröffentlichung von ChatGPT sind die Potenziale von großen Sprachmodellen (Large Language Models – LLMs) für simulierte Angriffe immer offensichtlicher geworden.
KI erleichtert das Pentesting
Die Entwicklung verläuft äußerst dynamisch, und die Anbieter stellen praktisch wöchentlich neue oder verbesserte Funktionalität zur Verfügung. Besonders hilfreich können die Sprachmodelle bei der Entwicklung von Code sein, aber auch bei der Dokumentation. Damit sind LLMs auch für die Aufgaben rund um das Pentesting in den Fokus geraten, und es gibt bereits erste GPTs, die spezifisch dafür trainiert wurden. In der Forschung ist man sich bereits sicher, dass sie bei den Herausforderungen realer Penetrationstests effektiv unterstützen können.
Eine wichtige Aufgabe ist das Schreiben von Testberichten, hier können LLMs manuelle Aufgaben vereinfachen, insbesondere beim Einhalten von durchgängigen Standards für die Berichte. Auch beim Schreiben von Test-Scripts und für das Vorschlagen von Folgemaßnahmen gibt es Automatisierungspotenzial. Zugleich muss die Nutzung von LLMs natürlich ebenfalls höchsten Sicherheitsvorgaben genügen, denn sie können ebenfalls verschiedene Einfallstore öffnen. Dazu gehört, dass Anfragen an das Sprachmodell böswillig manipuliert werden und so zu falschen Ergebnissen führen oder dass Informationen aus Anfragen unerlaubt preisgegeben werden. In vielen Szenarien rund um generative KI, zu der die großen Sprachmodelle zählen, kommt also mehr Arbeit auf die IT-Security-Verantwortlichen zu.
Quellen:
PwC Deutschland: Die sechs wichtigsten Cyber-Security-Trends für 2024
ResearchGate: PentestGPT: An LLM-empowered Automatic Penetration Testing Tool
Hexway: Generative AI in Penetration Testing
The Hacker News: The Golden Age of Automated Penetration Testing is Here
Pentest: LLMs: Die 10 größten Risiken für Ihre Cybersicherheit