it-security-nuetzt-oder-schadet-chatgpt-ihr-mehr

KI in der Cybersecurity: Fluch und Segen zugleich

ChatGPT ist seit Anfang 2023 branchenübergreifend das Hype-Thema schlechthin. Während die einen vor Sicherheitsrisiken und davor warnen, dass der intelligente Chatbot Fake News aufsitzen und verbreiten könnte, sehen andere große Potenziale bei der Jagd auf Cyberkriminelle.

Chatbots für Marketing und Support liefern oft schon sehr brauchbare Antworten, aber das ist alles nichts gegen ChatGPT, einen intelligenten Algorithmus für natürliche Sprachverarbeitung (NLP) des Musk-Zögling OpenAI. Und der versetzt die Welt seit Ende 2022, Anfang 2023 in Staunen. Denn er ist scheinbar in der Lage, ganze Texte und sogar Märchen zu verfassen, selbst Programm-Code zu schreiben und Interviews in verschiedenen Sprachen zu geben.

Das Kürzel GPT steht hier für Generative Pretrained Transformer, einen auf künstlicher Intelligenz, Machine und Deep Learning basierenden Textgenerator, der entsprechend antrainiert, selbst lernen kann, mehr als brauchbare Texte auszugeben.

IT-Entscheider sind überwiegend skeptisch

Die Crux ist aber, wie von verschiedenen Seiten moniert, dass ChatGPT mit dem neuen Algorithmus GPT-3.5 sein „Wissen“ vielfach aus sozialen Medien bezieht und somit zum Teil zweifelhafte Meinungen wiedergibt. Und somit lässt sich das Sprachverarbeitungsmodell möglicherweise auch für staatliche Angriffe und andere böse Zwecke missbrauchen. Dass diese Szenarien nicht einfach nur Hirngespinste sind, zeigt eine Studie von Blackberry Deutschland aufgrund einer Umfrage bei 500 IT-Entscheidungsträger.

Demnach rechnet die Hälfte der Befragten (52 Prozent) damit, dass es im kommenden Jahr schon zu einem von ChatGPT ausgehenden erfolgreichen Cyberangriff kommen wird; 61 Prozent glauben sogar, dass eine ausländische Macht sich dessen gegen andere Nationen bedienen werden; 58 Prozent sehen in der Anwendung eine potenzielle Bedrohung für die Cybersicherheit und sind entsprechend besorgt. Dabei sind viele der Befragten aber grundsätzlich davon aus, dass OpenAI mit ChatGPT erstmal gute Absichten verfolgt, aber auch einer gewissen staatlichen Steuerung bedarf.

it-security-nuetzt-oder-schadet-chatgpt-ihr-mehr
Viele IT-Entscheider gehen davon aus, dass ChatGPT zukünftig Hackern beim Aufbau von Wissen oder bei der Verbreitung von Fehlinformationen unterstützen wird (Quelle: Adobe stock / Somchai).

46 Prozent der von BlackBerry befragten IT-Entscheider denken, dass ChatGPT Hackern helfen könnte, ihr technisches Wissen zu verbessern und spezialisierte Fähigkeiten zu entwickeln; 45 Prozent sehen die oben beschriebene Gefahr der Verbreitung von Fehlinformationen oder Fake News; 43 Prozent rechnen aufgrund von ChatGPT mit weiterentwickelten und neuen Social-Engineering-Attacken.

Ohne Intelligenz ist die Cyberabwehr heute lahm

Tatsächlich setzen viele Cyberkriminelle immer mehr auf künstliche Intelligenz und erfordert das auf Seiten der Abwehr gleichfalls immer intelligentere Systeme, zumal es ohne KI und entsprechende Automatismen kaum noch möglich ist, allen möglichen Gefahren habhaft und Herr zu werden. Worauf es immer mehr ankommt, ist es, Angriffe antizipieren, sprich voraussagen zu können. Und diese Fähigkeit geht weit über das hinaus, was klassische Antivirenprogramme leisten.

Und auch in der Cyberabwehr besteht bereits Hoffnung, dass ChatGPT dabei helfen kann. Die Experten von Sophos AI, einem neuen Arm des britischen Sicherheitssoftware-Anbieters Sophos, sehen jedenfalls große Potentiale in GPT-3. Denn mit dem sogenannten „Few-Shot Learning“, Grundlage von KI-Textgeneratoren, benötigt Sophos AI oder ein anderes GPT-3-Lernmodell nur wenige Trainingsdaten, um neue Beispiele erlernen und klassifizieren zu können. Bei bisherigen ML-Modellen führen zu wenige Trainingsdaten oft zu einer Überanpassung und dazu, dass sie bei neuen Beispielen buchstäblich wie der Ochs vor dem Walde stehen und keine Regeln ableiten können.

Wie es in einer Sophos-Pressemitteilung heißt, verfügt Sophos AI über eine Art menschliche Kreativität im Kampf gegen Cyberkriminalität. Man könne zum Beispiel GPT-3 bitten, aus einer Funktionsbeschreibung einen Python-Code zu schreiben oder eine Klassifizierungsanwendung mit nur wenigen Beispielen zu erstellen.

Anwendungsbeispiele für die GPT-gesteuerte Abwehr

Als Anwendungsbeispiele sieht Sophos die Spam-Erkennung. Während herkömmliche Klassifizierungsmodelle oft einen sehr großen Trainingsdatensatz benötigten, um genügend Signale zu erlernen, braucht GPT-3 nur auf seinen antrainierten großen Textdatensatz zuzugreifen, um die Intention einer Klassifizierungsaufgabe zu erkennen und sie mit wenigen Beispielen zu lösen. Beim Few-Shot-Learning kommt oft das sogenannte Prompt Engineering für die natürliche Sprachverarbeitung zum Einsatz, wobei mit Texteingabeaufforderungen (text prompts) Bilder oder in der natürlicher Sprache gehaltene Ausgabedaten erzeugt werden, oder im Fall von Spam eine Label-Predication. Ziel ist es, den Mail-Posteingang nach „Spam oder Ham“, unerwünschte und erwünschte Mails, zu filtern. GPT-3 übertrifft die herkömmlichen ML-Modelle wie logistische Regression und „Random Forest“ somit deutlich, heißt es in der Sophos-Pressemitteilung.

Ein anderes dort genanntes Anwendungsbeispiel ist die Unterstützung beim Reverse Engineering von Befehlszeilen, was selbst für absolute Sicherheitsexperten eine schwierige und zeitraubende Angelegenheit ist. Noch schwieriger sei es, „Living-off-the-Land“ oder kurz LotL-Befehle zu verstehen, die aus schwer zu analysierenden Zeichenketten bestehen und von Cyberkriminellen genutzt werden, um zum Beispiel Phishing-Aktivitäten zu tarnen.

GPT-3 kann die betreffende Befehlszeile in verständliche Worte zu übersetzen und aus der gegebenen Beschreibung des Codes einen funktionierenden Java- oder Python-Code zu schreiben. Sophos AI nutzt GPT-3 auch für eine Rückübersetzungsmethode für die Auswahl der bestmöglichen Beschreibung, um die ähnlichste Befehlszeile zur Eingabebefehlszeile erzeugen zu können.

it-security-nuetzt-oder-schadet-chatgpt-ihr-mehr
Ein Anwendungsbeispiel von ChatGPT ist die Unterstützung beim Reverse Engineering von Befehlszeilen, wobei ChatGPT die betreffende Befehlszeile in verständliche Worte übersetzen kann (Quelle: Adobe stock / irissca).

Fazit:

ChatGPT ist, was die IT-Security angeht, Segen und Fluch zugleich. So wie die Technologie selbst stecken aber auch die Anwendungen noch in den Kinderschuhen. Die Cyberabwehr sollte dabei aber nicht schlafen und GPT-3 oder GPT-3.5 nutzen, um den Angreifern voraus zu sein und nicht wie sooft hinterherzueilen. Denn angesichts der ohnehin angespannten Weltlage ist es nur eine Frage der Zeit, dass ChatGPT oder Konkurrenzprodukte wie Googles „Apprentice Bard“ (wörtlich „Lehrlingsbarde“) für staatlich oder von Terroristen gelenkte Angriffe auf andere Nationen eingesetzt werden.

Quelle Titelbild: Adobe Stock / Vitor Miranda

Diesen Beitrag teilen:

Weitere Beiträge

OZG 2.0: Digitalisierung in der Verwaltung kommt nicht voran

Die schleppende Digitalisierung entwickelt sich immer mehr zum Standortnachteil für Deutschland. Dabei ... »

22.02.2024 | Redaktion Digital Chiefs

Ransomware: Immer öfter zieht eine Erpressung die nächste nach sich

Cyberkriminelle geben sich mit einem Ransomware-Angriff nicht mehr zufrieden, sondern schlachten ihre ... »

19.02.2024 | Redaktion Digital Chiefs