Künstliche Intelligenz sorgt für mehr Sicherheit und mehr Bedrohungen

Im Jahr 2023 ist etwas Bemerkenswertes in der Welt der Technik passiert: Künstliche Intelligenz (KI) wurde zum Mainstream. Eigentlich sind es große Sprachmodelle (LLMs) und, genauer gesagt, generative Pre-Trained Transformers (GPT), die seit dem Jahr 2023 im Mittelpunkt stehen. LLM ist ein weiter gefasster Begriff, der verschiedene Sprachmodelle, einschließlich, aber nicht beschränkt auf Transformator-basierte Modelle wie GPT. KI ist ein noch breiteres Gebiet, von dem LLMs nur eine Teilmenge sind. Generative KI hingegen ist ein Oberbegriff Begriff, der ein Spektrum von Techniken zur Erstellung von Inhalten wie Text, Bilder, Videos und Musik beinhaltet.

LLMs sind eine Teilmenge der generativen KI, die sich auf Text. Dennoch hat die GPT die Welt im Sturm erobert und in Anbetracht der auf der CES präsentierten Innovationen 2024 vorgestellten Innovationen wird generative KI schon bald in allen unseres Lebens sein. Als KI sich ins Rampenlicht rückte, entging sie nicht der Aufmerksamkeit bösartiger Bedrohungsakteure. Generative KI-Anwendungen gewinnen zunehmend an Bedeutung, doch mit ihrem Aufschwung entstehen neue Herausforderungen bei der Absicherung gegen Missbrauch. Die Anbieter von generativen KI-Diensten haben erkannt, wie wichtig es ist, Sicherheitsvorkehrungen zu treffen, um zu verhindern, dass ihre Modelle für für schädliche Zwecke missbraucht werden. Als KI-Hacking eine neue Bedrohung darstellte, waren die Anbieter gezwungen, ihre ihre Sicherheitsvorkehrungen kontinuierlich zu verbessern. KI-Prompthacking ermöglicht es sowohl einfachen Nutzern als auch böswilligen Akteuren KI-Modelle so manipulieren, dass sie Aufgaben zu erledigen, für die sie nie gedacht waren.

An einer anderen Front sind private Open-Source-GPTs auf GitHub aufgetaucht, die vortrainierte LLMs für die Erstellung von Anwendungen nutzen, die für bestimmte Zwecke zugeschnitten sind. Diesen privaten Modellen fehlen oft die Leitplanken, die von kommerziellen Anbietern implementiert werden, was zu kostenpflichtigen KI-Diensten im Untergrund geführt hat, die GPT-ähnliche Fähigkeiten – ohne Beschränkungen und optimiert für bösartige Anwendungsfälle.

Im Mittelpunkt dieser KI-Revolution steht eine entscheidende Verständnis: LLMs sind nicht wirklich intelligent. Sie sind massive statistische Sprachprozessoren, die anhand riesiger Mengen von Internetdaten trainiert wurden. Sie sind hervorragend darin, Informationen auf der Grundlage ihrer Ausbildung, aber es fehlt ihnen die Fähigkeit, kritisch zu denken oder völlig neue Ideen zu entwickeln. Stattdessen interpolieren und suchen auf der Grundlage ihres riesigen enormen Datenbestands.

Wichtige Trends in der Bedrohungslandschaft

Nichtsdestoweniger bieten LLMs ein mächtiges Werkzeug für Bildung und Produktivität. Wenn sie mit Bedacht eingesetzt werden, können LLMs dem Einzelnen helfen, seine Ziele effizienter zu erreichen. Sie öffnen aber auch die Tür für böswillige Bedrohungsakteure, die ein größeres Netz auswerfen und ihre Angriffskampagnen ausweiten wollen. Generative adversarial networks (GANs) und Diffusionsmodelle sind eine Klasse von maschinellen Lernverfahren, die sich mit anderen Inhalten als Text befassen. Während LLMs wie Papageien sind, die getreu wiedergeben, was sie gelernt haben, sind GANs und Diffusionsmodelle mit Künstlern vergleichbar. Sie haben die Fähigkeit, Folgendes zu erzeugen:

Bilder, Videos, Audio oder andere Inhalte. GANs verwenden ein Generator- und und ein Diskriminator-Netzwerk, um Outputs zu erzeugen und zu bewerten, so dass sie neue Inhalte zu „erfinden“, wenn auch durch einen Prozess von Versuch und Irrtum. LLMs können zwar in gewissem Maße die Produktivität und Komplexität erhöhen, sind sie letztlich an ihre Trainingsdaten gebunden. LLMs sind nicht auf natürliche Sprachen beschränkt, sondern zeichnen sich auch durch die Reproduktion und Generierung von Programmiersprachen aus. Weniger gut ausgebildete Bedrohungsakteure können LLMs nutzen, um komplexere Angriffsskripte oder Malware erstellen, aber diese Angriffe und Malware sind aber diese Angriffe und Malware sind immer noch durch das in das LLM-Modell eingebettete Wissen begrenzt. Daher liegt die Zunahme der Raffinesse eher in der Anzahl der Angriffe mit einer höheren durchschnittlichen Raffinesse und nicht in der ihnen innewohnenden Komplexität und Raffinesse.

Bedrohungsakteure lernen, wie jeder in der Branche, und passen sich an. Die Beschleunigung des Lernens und der Forschung, der aktuellen generativen KI-Systeme ermöglicht es ihnen, ihre Fähigkeiten zu verbessern und ausgefeilte Angriffe viel schneller zu entwickeln im Vergleich zu den Jahren des Lernens und der Erfahrung. Selbst für fortgeschrittene Bedrohungsakteure bieten die aktuellen generativen KI-Tools reichlich Gelegenheit, ihre Produktivität zu steigern, und könnten z. B, zur Entdeckung von Schwachstellen in Open-Source-Software eingesetzt werden, was möglicherweise was zu einer raschen Zunahme von Zero-Day-Exploits in der freien Wildbahn führen könnte.

Die Landschaft entwickelt sich weiter, und die generative KI entwickelt sich in rasanter Geschwindigkeit. Kürzlich stellte Google Gemini vor, sein bisher leistungsfähigstes KI-Modell. Gemini ist ein multimodales generatives KI-System, das in der Lage ist, Text, Audio/Stimme, Bilder, Video und Code durch eine einzige Eingabeaufforderung zu interpretieren und zu generieren.

Diese Tools ermöglichen es, mit wenigen Tastendrücken höchst glaubwürdige Scams und Deepfakes zu erstellen. Ethische Anbieter werden dafür sorgen, dass Beschränkungen eingerichtet werden, um den Missbrauch einzuschränken, aber es ist nur eine Frage der Zeit, bis ähnliche Systeme ihren Weg in die Öffentlichkeit finden und böswillige Akteure sie in echte Produktivitätsmaschinen verwandeln. Dies wird es Kriminellen ermöglichen, vollautomatische Spearphishing- und Fehlinformationskampagnen im großen Stil durchzuführen.

LLMs und GANs verändern die technologische Landschaft. LLMs steigern Produktivität und automatisieren Aufgaben in einem noch nie dagewesenen Ausmaß, sowohl für für legitime Nutzer und böswillige Akteure. GANs hingegen besitzen das das Potenzial, neue Inhalte, einschließlich neuer Angriffslasten, zu erstellen. Die Reise der KI hat zwar schon einige Winter und Frühlinge erlebt, aber eines bleibt sicher: Die KI-Landschaft entwickelt sich weiter und bietet sowohl Versprechen als auch Herausforderungen. Ähnlich wie in der Sicherheitsszene seit vielen Jahren, ist es ein technischer Wettlauf zwischen den auf Sicherheit bedachten Nuetzern und verbrecherischen Akteuren. KI könnte uns dazu zwingen, Bedrohungen anzupassen und zu ändern, aber es wird in Zukunft nicht grundlegend anders sein als in der Vergangenheit.

Informationen von Radware

Stephan Mayer


Beitrag veröffentlicht

in

,

von