20. Juni 2024
Die EU hat ein KI-Gesetz beschlossen. Doch es strotzt nur so vor Ausnahmeregelungen und lässt keinen echten Willen erkennen, diese Technologie zu demokratisieren.
»Das Gesetz ermöglicht es den Entwicklern, die Risiko-Bewertung selbst vorzunehmen.«
Im April 2021 – in der Debatte über Nutzen und Gefahren von künstlicher Intelligenz also vor einer gefühlten Ewigkeit – legte die Europäische Kommission einen 108-seitigen Vorschlag zur Regulierung von KI vor. Drei Jahre später, im März 2024, stimmte das Europäische Parlament zu und der Vorschlag wurde zum Gesetz. Es war die weltweit erste umfassende Regulierung der umstrittenen Technologie.
Das Herzstück dieses speziellen Regelwerks ist der sogenannte risikobasierte Ansatz: Der Grad der Regulierung richtet sich nach dem Risiko, das das System für die Sicherheit oder die Grundrechte der Menschen darstellen kann. Bei einigen Arten von KI-Systemen wird das Risiko als inakzeptabel hoch eingestuft, sodass es praktisch verboten ist, sie in der EU zu verwenden oder zu verkaufen. Zu dieser Kategorie gehören sozialpolitische »Scoring«-Systeme und einige Formen biometrischer Identifikationstechnologien wie beispielsweise Gesichtserkennung.
Im Rahmen der Vorgaben gelten für Systeme mit hohem Risiko also strenge Verpflichtungen für Bewertung und laufende Überwachung, während Systeme, die als weniger risikoreich eingestuft werden, einer deutlich weniger strengen Regulierung unterliegen. Als Beispiele für Systeme mit geringem oder ganz ohne Risiko nennt die Europäische Kommission Spam-Filter und KI-unterstützte Videospiele. Sie stellt außerdem fest, dass die meisten der derzeit in Europa verwendeten KI-Systeme in diese letztere Kategorie fallen dürften.
Die Frage, welche Technologie in welche Risikostufe gehört, ist allerdings ein immer wiederkehrender Streitpunkt. Beispielsweise waren die Mitgliedstaaten im Europäischen Rat federführend bei der Aufnahme einer »zusätzlichen Ebene« in den Prozess. Diese ermöglicht es gewissermaßen den Entwicklern, die Risiko-Bewertung selbst vorzunehmen. In der letztendlich erzielten Einigung gibt es nun eine Liste von Systemen mit hohem Risiko, die stets ergänzt werden kann, aber auch eine Option, die es Unternehmen ermöglicht, Apps und Anwendungen herauszufiltern, die sie selbst als nicht hochriskant betrachten.
Du hast ein Abo, aber hast dich noch nicht registriert oder dein Passwort vergessen?
Klicke hier!
Lizzie O’Shea ist Juristin, Rundfunksprecherin und Autorin von Future Histories: What Ada Lovelace, Tom Paine, and the Paris Commune Can Teach Us About Digital Technology.