Brüssel Der Vorgang war so etwas wie ein Lehrstück an der eigenen Person: Anfang des Monats tauchte im Intranet des Europäischen Parlamentes eine Nachricht auf, die zu heftigem Protest der Volksvertreter führte. Die IT-Abteilung des Hauses kündigte an, dass die Abgeordneten für den Zutritt zum Parlament nicht mehr ein spezielles Badge benötigen, sondern per Gesichtserkennung identifiziert würden.
Der Widerstand wirkte, die Nachricht wurde zurückgezogen. Künstliche Intelligenz hautnah – da machten sich Ängste breit. Dem will die EU mit einem Rechtsrahmen entgegentreten, für den in der nächsten Woche die ersten Eckpunkte gesetzt werden, wenn Kommissions-Vizepräsidentin Margrethe Vestager ein sogenanntes Weißbuch ihres Hauses vorlegt. Antworten sind offenbar Mangelware, das Dokument enthält mehr offene Fragen. Einig sind sich die EU-Institutionen aber in einem Punkt: Transparenz und Fairness für den Bürger werden das oberste Gebot sein. Dies hat das Europäische Parlament am Mittwoch schon mal beschlossen. „Lassen Sie uns auf der Grundlage unserer Werte hohe europäische Standards schaffen, um die Transparenz und Rechenschaftspflicht der KI (Künstliche Intelligenz, d. Red.) gegenüber den Bürgern weltweit zu gewährleisten“, sagte die Vizepräsidentin des Europäischen Parlamentes, Nicola Beer (FDP), am Mittwoch. Ein solcher Rechtsrahmen wird dringend gewünscht.
Sogar Sundar Pichai, Chef des Google-Mutterkonzerns „Alphabet“, wünschte sich in einem Gastbeitrag für die „Financial Times“ klare Vorgaben: „Ich habe keinen Zweifel daran, dass Künstliche Intelligenz reguliert werden muss“, schrieb er. In Brüssel wird an einem Drei-Stufen-Modell gearbeitet: Unternehmen, die KI-Technik anbieten und bestimmte Sicherheits- und Haftungsanforderungen garantieren, könnten ein freiwilliges Label nutzen. Öffentliche Behörden, die KI einsetzen, aber dabei in die Grundrechte der Bürger eingreifen (Polizei und Sicherheitsbehörden), sollen zu regelmäßigen Berichten über den Nutzen von KI und deren Erkenntnisse verpflichtet sein. Bei besonders „risikoreichen“ Anwendungen zum Beispiel im Gesundheitswesen müssten die Anforderungen vor dem Einsatz noch stärker angehoben werden. Außerdem wird es ein Recht für die Bürger auf Entschädigung geben, falls Algorithmen zu fehlerhaften Ergebnissen führen.