T-Systems-Claim-Logo
Suchen
Mann mit Programmiercode als Hologram für Cybersicherheit

Kann KI die Cyber Security effizienter machen?

Wie Künstliche Intelligenz (KI) im Security-Umfeld neue Möglichkeiten für besseren Cyberschutz eröffnet

11. März 2024Martin Krumböck

Künstliche Intelligenz verändert die IT-Sicherheit

Seit der „Geburt“ von ChatGPT im November 2022 und dem Aufkommen weiterer KI-Tools wie Aleph Alpha, Google Bard oder Microsoft Copilot überschlagen sich die Ereignisse. Eine Schlagzeile jagt die nächste und der Siegeszug von generativer KI (GenAI) scheint unaufhaltsam. Doch wie wirkt sich die Entwicklung von Artificial Intelligence auf die Sicherheit aus? Wie verändern sich Cyberangriffe und wie hilft KI den Verteidigern, Daten und Systeme besser zu schützen?

Mit KI potenzielle Sicherheitslücken finden

Durch Generative Artificial Intelligence (GenAI) wird Künstliche Intelligenz erstmals für jeden nutzbar. Wir alle können KI unkompliziert einsetzen, mit ihr interagieren und sie sogar selbst weiterentwickeln. Schnell finden wir Anwendungsfälle, die für uns persönlich, unsere Arbeit oder Unternehmen wichtige Vorteile mit sich bringen. So senkt generative KI die Einstiegsschwelle der Nutzer enorm und macht Appetit auf mehr.

Auch für IT und Sicherheit ist Künstliche Intelligenz ein wichtiges Thema. Technologien wie Big Data Analytics, Machine Learning (ML) oder Verhaltensanalysen werden schon seit Jahren genutzt, um Abläufe zu automatisieren oder die Erkennungsrate von Malware zu verbessern. Beliebte Einsatzfelder sind die Bedrohungserkennung und -abwehr. Hierbei identifizieren intelligente Tools schnell und zielsicher Anomalien oder verdächtiges Verhalten in Netzwerken oder Systemen. So können frühzeitig Gegenmaßnahmen eingeleitet werden. Außerdem helfen die Lösungen, Lücken in der IT-Sicherheit zu schließen, indem sie automatisch potenzielle Schwachstellen aufspüren und Security Updates priorisieren.

Phishing-Mails: Erfolgreicher dank KI

Auf der anderen Seite machen sich aber auch Cyberkriminelle die Technologie zunutze, etwa um in erbeuteten Daten zügig personenbezogene oder geschäftskritische Informationen zu finden. Zudem ermöglicht ihnen die KI, ausgefeiltere und unauffälligere Cyberattacken durchzuführen als bisher. Ein Beispiel sind Phishing-Mails: Früher erkannte man diese leicht anhand von Rechtschreibfehlern und wirrer Satzstellung. Heute wirken sie konsistenter und sind professioneller formuliert. Denn mithilfe von GenAI lassen sich gefakte Anschreiben unkompliziert in vielen Sprachen erstellen.

Allerdings stellen sich auch die Verteidiger:innen und Hersteller:innen von Sicherheitslösungen darauf ein. Sie verwenden Artificial Intelligence wiederum, um KI-generierte Texte zu erkennen. E-Mail-Protection-Lösungen beispielsweise markieren suspekte Mails und sortieren sie aus. Ein Vorgehen, das im Umkehrschluss jedoch auch die Angreifer:innen dazu motiviert, KI-Tools noch effektiver zu nutzen, um eingängigere Texte zu verfassen. Ein Katz-und-Maus-Spiel, bei dem Cyberkriminelle und Verteidiger:innen einander zu übertrumpfen versuchen.

Die Chancen von KI im SOC nutzen

Über die Erkennung von Phishing-Mails hinaus birgt Künstliche Intelligenz speziell für Anbieter von Managed Security Services wie T-Systems zahlreiche Chancen. Sie unterstützt beispielsweise unsere Sicherheitsanalysten im Security Operations Center (SOC), sodass wir im Rahmen von Managed Detection & Response die Anwendungen, Daten und Systeme unserer Kunden noch besser schützen können. KI wird im SOC für viele verschiedene Aufgaben verwendet und ist bereits in vielen Security-Lösungen integriert. Zum Beispiel haben Sicherheitsalarme, die im Zuge von Threat Detection generiert werden, dank KI eine höhere Qualität – das reduziert die Anzahl von False Positives und so auch den Arbeitsaufwand für die Teams im SOC.

KI und Automatisierung: Turbo für die Cyber Security

32%

ihrer Zeit verbringen SOC-Analyst:innen täglich damit, IT-Vorfälle zu prüfen, die keine Bedrohung sind1

39%

der Unternehmen glauben, dass AI & Automation es ermöglichen, schneller auf Cyber Threats zu reagieren1

1 Global Security Operations Center Study Results, Morning Consult, 2023, IBM

Wichtig! Auch an Datenschutz denken

Beim Prompten keinesfalls zu vernachlässigen: der Datenschutz. Weder personenbezogene noch kundenspezifische Daten dürfen in öffentliche KI-Modelle wie Bard oder ChatGPT wandern. Denn keiner weiß, was im Hintergrund mit den Daten passiert – wo sie gespeichert werden, ob Unberechtigte darauf zugreifen oder sie zu Trainingszwecken vervielfältigt werden.

Um beim Datenschutz auf Nummer sicher zu gehen, können Unternehmen eine eigene GenAI als separierte, geschützte Instanz aufsetzen und mit internen Daten trainieren. Darauf zugreifen dürfen dann nur die eigenen Mitarbeitenden. Doch auch hier gibt es Herausforderungen: Es gilt, ein sicheres Berechtigungs- und Rollensystem zu hinterlegen, da nicht jeder alle Informationen – etwa aus dem Finanz- und Personalwesen – einsehen darf.

Eine solche Lösung wäre auch für den KI-Einsatz im Security-Kontext denkbar. Schließlich geht es hier ebenfalls um sensible Daten. Wird etwa bei einem Kunden aus der Finanzbranche das Online-Banking kompromittiert und wir helfen ihm, den Incident zu analysieren, darf dieses Wissen nicht nach außen dringen. Etwa weil Bank- und Kreditkartendaten im Spiel sind, also genau diejenigen Informationen, die die Cyberkriminellen abgreifen wollten.

Wie geht es weiter mit der KI?

Bei T-Systems wollen wir in Zukunft verstärkt repetitive Aufgaben im Security Operations Center durch moderne Security Tools auf Basis von KI und Machine Learning automatisieren. Das beschleunigt die Abläufe und verschafft unseren Expert:innen mehr Freiraum für anderwärtige Aufgaben. Gleichzeitig skalieren die SOC-Prozesse besser. Heißt: Wir vermeiden Engpässe beim Service Level und verbessern den Support für unsere Kunden.

Hinsichtlich des allgemeinen Hypes um Artificial Intelligence gilt, dass solche Modelle bisher sehr gut auf einzelne Use Cases abgestimmt sind, im Fall von ChatGPT etwa auf Konversation und Wissensvermittlung. Komplexe Rechenaufgaben hingegen kann dieser Bot nicht lösen. Ein Modell, das alle menschlichen Fähigkeiten abbilden kann, wäre eine Artificial General Intelligence (AGI), also eine allgemeine KI – davon sind wir allerdings noch viele Jahre und Entwicklungsschritte entfernt. Daher ist für uns klar: Menschliche Kompetenzen braucht es auch in Zukunft – nicht nur in der Security. Die KI ergänzt die Fähigkeiten von Menschen, kann sie aber (noch) nicht ersetzen.

Erfahren Sie mehr über die aktuellen Trends rund um Cyber Security

Zur Person
IM-Krumboeck-Martin

Martin Krumböck

CTO Cyber Security, T-Systems International GmbH

Profil und alle Artikel ansehen

Wir freuen uns auf Ihr Projekt!

Gern stellen wir Ihnen den passenden Experten zur Seite und beantworten Ihre Fragen rund um Planung, Implementierung und Wartung Ihrer Digitalisierungsvorhaben. Sprechen Sie uns an!

Besuchen Sie t-systems.com außerhalb von Austria? Besuchen Sie die lokale Website für weiterführende Informationen und Angebote für Ihr Land.