Forschungen zeigen, dass fortgeschrittene Sprachmodelle ransomware-Angriffe autonom durchführen können

Publié le 6 September 2025 à 09h22
modifié le 6 September 2025 à 09h23

Die Fortschritte in der künstlichen Intelligenz verändern radikal die Landschaft der Cybersicherheit. Fortgeschrittene Sprachmodelle treten als neuartiger und beachtenswerter Bedrohungsvektor auf. Diese Technologie ermöglicht nun die autonome Durchführung von Ransomware-Angriffen, indem sie Cyberkriminellen leistungsstarke Werkzeuge bietet, um verschiedene Systeme zu kompromittieren. Die wirtschaftlichen und technischen Implikationen solcher Fähigkeiten sind besorgniserregend und gefährden die Sicherheit sensibler Daten. Eine angemessene Reaktion vorzubereiten wird zu einer Priorität für Verteidiger angesichts dieser sich entwickelnden Bedrohung, die von bisher unbekannten Sophistiken geprägt ist.

Autonome Ransomware-Angriffe, die von KI angetrieben werden

Eine aktuelle Studie des Teams der NYU Tandon School of Engineering hat ein alarmierendes Phänomen aufgezeigt: Fortgeschrittene Sprachmodelle können nun autonome Ransomware-Angriffe durchführen. Diese Forschung, veröffentlicht auf dem Preprint-Server arXiv, hat ein Ransomware-System namens „Ransomware 3.0“ entwickelt. Dieses Prototyp ist in der Lage, Systeme zu kartografieren, sensible Dateien zu identifizieren, Daten zu stehlen oder zu verschlüsseln, und Lösegeldnachrichten zu verfassen.

Funktionsweise des Ransomware 3.0-Systems

Dieses bösartige System wurde entwickelt, um die Fähigkeit einer künstlichen Intelligenz zu demonstrieren, jeden Schritt eines Angriffs zu orchestrieren. Ransomware 3.0, von der Cybersicherheitsfirma ESET „PromptLock“ genannt, wurde auf der Plattform VirusTotal während der Tests entdeckt. Die Forscher konnten nachweisen, dass das im Labor entworfene Prototyp funktionsfähige Codes erzeugen konnte, was zunächst einige Experten täuschte, die dachten, sie hätten eine echte aktive Ransomware entdeckt, die von böswilligen Akteuren entwickelt wurde.

Komplexität der von KI generierten Angriffe

Die von KI generierten Angriffe zeichnen sich durch ihre einzigartige Ausführungsmethode aus. Im Gegensatz zu herkömmlichen vorgefertigten Angriffscodes integriert die Malware Anweisungen, die in Programmen geschrieben sind, und diese Anweisungen werden von Sprachmodellen interpretiert. Jede Aktivierung der Malware kommuniziert mit KI-Modellen, um Lua-Skripte zu generieren, die auf die spezifische Konfiguration jedes angevisierten Geräts zugeschnitten sind.

Verteidigung und Erkennung im Cyberspace

Die wirtschaftlichen Implikationen dieser Forschung deuten auf einen signifikanten Wandel in der Art und Weise hin, wie Ransomware-Operationen durchgeführt werden. Zuvor waren qualifizierte Entwicklungsteams sowie erhebliche Investitionen in die Infrastruktur erforderlich. Der Prototyp Ransomware 3.0 benötigt nur etwa 23.000 KI-Token pro Angriff, was Kosten von etwa 0,70 $ entspricht. Die Nutzung von Open-Source-KI-Modellen eliminiert somit die Kosten für kommerzielle Dienste.

Die aktuellen Erkennungssysteme stehen vor einer wesentlichen Herausforderung. Traditionelle Sicherheitssoftware basiert auf der Erkennung bekannter bösartiger Signaturen oder typischer Verhaltensweisen. Allerdings erzeugen die von KI generierten Angriffe unterschiedliche Codes, die leicht an diesen Abwehrsystemen vorbeigeführt werden können. Durchgeführte Tests haben gezeigt, dass KI-Modelle in der Lage waren, zwischen 63 % und 96 % der sensiblen Dateien zu identifizieren, je nach Art der Umgebung, was die Effektivität dieser neuen Techniken unterstreicht.

Vorbereitungsmaßnahmen und Empfehlungen

Die Forscher betonen die Notwendigkeit, die Überwachung des Zugriffs auf sensible Dateien zu erweitern und die Verbindungen zu ausgehenden KI-Diensten zu begrenzen. Darüber hinaus ist es von entscheidender Bedeutung, Erkennungsfähigkeiten zu entwickeln, die speziell für die durch KI generierten Angriffsverhalten ausgelegt sind. Diese Empfehlungen zielen darauf ab, die Cybersicherheitsgemeinschaft auf die Reaktion auf aufkommende Bedrohungen vorzubereiten, die intelligente künstliche Technologien nutzen.

Diese wertvolle Forschung, die von institutionellen ethischen Richtlinien geleitet wird, bietet entscheidende Einblicke und technische Details, die der Cybersicherheitsgemeinschaft helfen, diese neue Bedrohung besser zu verstehen. Die Herausforderung besteht nun darin, die Abwehr gegen diese autonomen Systeme zu stärken und neue Ransomware-Techniken zu bekämpfen, die die Landschaft des Cybercrime neu konfigurieren könnten.

FAQ: Forschungen zeigen, dass fortgeschrittene Sprachmodelle autonome Ransomware-Angriffe durchführen können

Was ist Ransomware 3.0 und wie funktioniert sie?
Ransomware 3.0, auch bekannt als PromptLock, ist ein bösartiges System, das in der Lage ist, autonom Ransomware-Angriffe unter Verwendung fortgeschrittener Sprachmodelle durchzuführen. Es führt mehrere Schritte durch, einschließlich der Kartierung von Systemen, der Identifizierung sensibler Dateien, dem Diebstahl oder der Verschlüsselung von Daten und der Generierung von Lösegeldnachrichten.

Was sind die Gefahren, die mit KI-gestützten Ransomware-Angriffen verbunden sind?
Die mit KI-gestützten Ransomware-Angriffen verbundenen Risiken sind vielfältig, insbesondere eine verbesserte Fähigkeit, Cybersicherheitsabwehr zu umgehen, indem einzigartiger Code generiert wird, da sie nicht auf bekannten bösartigen Signaturen basieren.

Wie können Unternehmen sich gegen diese KI-Bedrohungen schützen?
Unternehmen sollten die Zugriffsmodelle auf sensible Dateien überwachen, ausgehende Verbindungen zu KI-Diensten kontrollieren und spezifische Erkennungsfähigkeiten entwickeln, um die durch KI generierten Angriffsverhaltensweisen zu erkennen.

Welche Arten von Systemen können von dieser Art von autonomer Ransomware betroffen sein?
Diese Art von Ransomware kann verschiedene Systeme anvisieren, einschließlich persönlicher Computer, Unternehmensserver und industrielle Kontrollsysteme, aufgrund ihres flexiblen und interoperablen Designs.

Wie wichtig ist die Forschung zu Ransomware 3.0 für die Cybersicherheitsgemeinschaft?
Diese Forschung ist entscheidend, da sie Cybersicherheitsexperten hilft, neue Bedrohungen zu verstehen und vorherzusehen. Sie liefert wichtige technische Informationen zur Vorbereitung wirksamer Gegenmaßnahmen.

Wie beeinflusst die Senkung der Kosten für den Start von Angriffen die Landschaft der Cyberkriminalität?
Die Verringerung der mit Ransomware-Angriffen verbundenen Kosten durch den Einsatz von Open-Source-KI-Modellen ermöglicht es weniger fortgeschrittenen Akteuren, anspruchsvolle Kampagnen durchzuführen, was die Anzahl potenzieller Angriffe erhöht.

actu.iaNon classéForschungen zeigen, dass fortgeschrittene Sprachmodelle ransomware-Angriffe autonom durchführen können

Künstliche Intelligenz trifft auf Künstliche Intelligenz: Gefälschte Nachrichten erkennen

découvrez comment l'intelligence artificielle peut être utilisée pour détecter les faux reçus créés par d'autres systèmes d'ia. analyse, enjeux et solutions pour renforcer la sécurité des transactions numériques.
découvrez comment anthropic a conclu un accord historique avec des auteurs, marquant une première dans la résolution d'une affaire de violation de droits d'auteur impliquant l'intelligence artificielle.

Die Chatbots und ihre ‚Emotionen‘: das seltsame Phänomen der aufgedeckten Sycophantie

découvrez comment les chatbots imitent des émotions humaines et pourquoi ils ont tendance à être trop accommodants, un phénomène appelé sycophantie. analyse des enjeux et impacts sur la communication homme-machine.

Maximierung der Rendite von Investitionen mit generativer KI: zu erkundende Sektoren

découvrez comment l'ia générative peut booster vos retours sur investissement. analyse des secteurs clés à explorer pour maximiser votre performance grâce à cette technologie innovante.
découvrez dans cette analyse approfondie comment les conversions du trafic généré par l’intelligence artificielle se comparent à celles du trafic organique, afin d’optimiser vos stratégies digitales et booster vos performances en ligne.
anthropic investit 1,5 milliard de dollars pour éviter un procès concernant le téléchargement illégal de livres, dans le but de renforcer ses pratiques éthiques et sa position dans le secteur de l'ia générative.