Dreiundachtzig Länder, darunter die Vereinigten Staaten, Großbritannien, Deutschland, Italien, Australien und Singapur, haben kürzlich eine Vereinbarung unterzeichnet, um die Sicherheit bei der Entwicklung von Künstlicher Intelligenz (KI) zu stärken. Dies ist ein weltweite Premiere für internationale Regeln, die sich auf die Entwicklung sicherer KI-Systeme bereits bei ihrer Entstehung konzentrieren und den Schutz dieser Technologien vor böswilligen Akteuren gewährleisten.
Ein internationales Abkommen zur Stärkung der Cybersicherheit von Künstlicher Intelligenz
Laut Jen Easterly, der Direktorin der US-Agentur für Cybersicherheit und Infrastruktur (CISA), ist es wichtig, dass die Länder erkennen, dass die Entwicklung von KI einen sicherheitsorientierten Ansatz erfordert. Es ist das erste Mal, dass ein Konsens erreicht wurde, der der Sicherheit mehr Bedeutung beimisst als der Funktionalität, der Markteinführungszeit oder der Kostensenkung im Bereich KI.
Die Gründertexte einer neuen Ära der Cybersicherheit
Das britische Zentrum für Cybersicherheit (NCSC) betrachtet diese ersten Texte als die Anfänge weiterer künftiger Vorschriften. Das Ziel ist es, Entwicklern dabei zu helfen, informierte Entscheidungen in Bezug auf Cybersicherheit in jeder Phase des Entwicklungsprozesses zu treffen. Das Ziel ist es, sicherzustellen, dass Sicherheit eine Grundvoraussetzung für jedes Künstliche Intelligenz-System wird und dass sie im Mittelpunkt der Entwicklungsarbeiten jedes einzelnen Bauteils während des gesamten Prozesses steht. Anlässlich des Starts dieser Initiative werden sich rund einhundert Schlüsselpartner aus der Industrie, Regierungen und internationalen Agenturen versammeln, darunter Microsoft, das Alan Turing Institute sowie die Cybersicherheitsbehörden aus Großbritannien, den Vereinigten Staaten, Kanada und Deutschland.
Ein kollektives Bekenntnis zur Gewährleistung einer sicheren KI-Entwicklung
Am Sonntag, den 26. November, haben Länder wie die Vereinigten Staaten, das Vereinigte Königreich, Frankreich und ein Dutzend weitere dieses Abkommen zur Stärkung der Cybersicherheit von Künstlicher Intelligenz unterzeichnet. Dies ist das erste detaillierte internationale Abkommen, das darauf abzielt, Künstliche Intelligenz vor böswilligen Akteuren zu schützen und Unternehmen zu ermutigen, von Anfang an sichere KI-Systeme zu schaffen. Zu diesem Zweck haben die CISA und das NCSC neue Richtlinien veröffentlicht, die die Entwickler dabei unterstützen sollen, in jeder Phase des Entwicklungsprozesses fundierte Entscheidungen in Bezug auf Cybersicherheit zu treffen.
Empfehlungen zur Gewährleistung der Sicherheit im Bereich der KI
Diese Richtlinien, die von den Agenturen aus 18 Ländern unterzeichnet wurden, sollen die Cybersicherheitsniveaus von Künstlicher Intelligenz heben und so dazu beitragen, dass diese sicher konzipiert, entwickelt und bereitgestellt wird. Jen Easterly betont, dass die Veröffentlichung dieser Richtlinien „einen entscheidenden Schritt in unserem kollektiven Engagement – von Regierungen auf der ganzen Welt – zur Gewährleistung einer sicheren Entwicklung und Bereitstellung von KI-Fähigkeiten von der Konzeption an” markiert. Obwohl es sich nicht um ein verbindliches Abkommen handelt, enthält es hauptsächlich allgemeine Empfehlungen wie die Überwachung von KI-Systemen zur Verhinderung von Missbrauch, den Schutz von Daten vor Manipulation und die Kontrolle von Softwareanbietern.
Eine beispiellose internationale Erklärung zur Antizipation der KI-Risiken
Das Abkommen zielt auch darauf ab, Fragen darüber zu klären, wie die Umleitung von Künstlicher Intelligenz-Technologie durch Hacker verhindert werden kann. Es enthält Empfehlungen wie die Veröffentlichung von Modellen nur nach geeigneten Sicherheitstests. Insgesamt haben 28 Länder, darunter die Vereinigten Staaten, das Vereinigte Königreich, die EU-Mitgliedstaaten und China, die Bletchley-Erklärung unterzeichnet, die darauf abzielt, die potenziellen Risiken von Künstlicher Intelligenz zu antizipieren. Die Bletchley-Erklärung ist die erste internationale Erklärung zur KI, wobei alle Länder übereingekommen sind, dass diese Technologie ein potenziell katastrophales Risiko für die Menschheit darstellt.
Während Künstliche Intelligenz in unserer Gesellschaft eine immer größere Rolle spielt, stellt dieses internationale Abkommen und die angekündigten Maßnahmen einen wichtigen Schritt dar, um eine sichere und verantwortungsvolle Entwicklung dieser entscheidenden Technologie zu gewährleisten. Die Zusammenarbeit zwischen den verschiedenen Ländern und Akteuren muss fortbestehen, um die inhärenten Risiken der zunehmenden Nutzung von KI in verschiedenen Bereichen effektiv zu vermeiden.