Sicherheit an erster Stelle: 18 Länder vereinbaren neue Richtlinien für KI-Entwicklung

Deutschland und 17 weitere Länder habe eine neue Richtlinien unterzeichnet, die das Prinzip “Secure by Design” in der Entwicklung von Künstlicher Intelligenz (KI) verankern sollen. Diese bahnbrechende Vereinbarung, die auch KI-Produkte betrifft, die andere KI-Systeme nutzen, markiert einen Wendepunkt in der globalen KI-Politik.

Die Bedeutung von “Secure by Design”

Die britische Regierung, die an der Spitze dieser Initiative steht, bezeichnet die Vereinbarung als die “weltweit ersten Richtlinien, um eine sichere KI-Entwicklung sicherzustellen”. Ziel ist es, KI-Anwendungen von Grund auf mit einem Fokus auf Sicherheit zu gestalten, zu entwickeln und anzuwenden. Dabei wird kein Unterschied zwischen verschiedenen Arten von KI gemacht. Die Richtlinien sollen Entwicklern aller Systeme, die KI nutzen, helfen, informierte Entscheidungen in Bezug auf die Cybersicherheit zu treffen. Besonders interessant ist, dass diese Richtlinien auch für Anwendungen gelten, die auf bestehenden KI-Modellen aufbauen, wie zum Beispiel eigenentwickelte GPTs oder ChatGPT-Plugins.

Ein Kodex statt bindender Regulierung

Ausgearbeitet wurden die Richtlinien vom UK National Cyber Security Centre (NCSC) und der US Cybersecurity and Infrastructure Security Agency (CISA) in Zusammenarbeit mit Vertretern aus der Industrie und nationalen Behörden weiterer 21 Länder. Obwohl die Richtlinien keinen bindenden Charakter haben, repräsentieren sie eine wichtige Leitlinie und Empfehlung für die Branche. Sie treten an die Stelle einer verpflichtenden Regulierung und bieten einen Rahmen für die verantwortungsbewusste Nutzung und Entwicklung von KI-Technologien.

Die Reaktionen und der Ausblick

Diese Initiative stößt auf ein gemischtes Echo. Während einige die Richtlinien als einen wichtigen Schritt in die richtige Richtung begrüßen, gibt es auch Bedenken hinsichtlich der fehlenden Verbindlichkeit. In einer Zeit, in der die Europäische Union mit dem AI Act ringt und Länder wie Deutschland, Frankreich und Italien gegen verpflichtende Regulierungen für Basismodelle sind, zeigt diese Vereinbarung eine alternative Herangehensweise an das Management von KI-Risiken.

In dieser sich schnell entwickelnden Landschaft der KI-Sicherheit bleibt es spannend zu beobachten, wie diese Richtlinien in der Praxis umgesetzt werden und ob sie einen echten Einfluss auf die Sicherheit von KI-Systemen haben werden.

Diese Seite teilen: