Künstliche Intelligenz muss ethisch bewertbar sein. Eine Gruppe von Forschenden unter Beteiligung der Universität Stuttgart hat hierzu einen praxisnahen Vorschlag erarbeitet.
Wer eine LED-Leuchte kauft, einen Gefrierschrank, ja, selbst ein Auto, der stolpert fast zwangsläufig über das Energieeffizienzlabel. Es ist eine intuitiv erfassbare Angabe zum Energieverbrauch und in der EU seit mehr als einem Jahrzehnt für immer mehr Produkte vorgeschrieben. Das Label ist bei Weitem nicht perfekt, weil es sich „schönrechnen“ lässt. Aber es ist inzwischen bei den Verbraucherinnen und Verbrauchern etabliert und dient oft als Orientierung.
Das Energielabel war auch – zumindest teilweise – Inspiration für eine neue Form von Kennzeichnung: Sie besagt, ob bei einem Algorithmus, der auf Künstlicher Intelligenz (KI) beruht, ethische Prinzipien eingehalten werden.
Wenn solche Algorithmen Entscheidungen treffen, die Folgen für Menschen haben, dann muss aus ethischen, aber auch aus rechtlichen Gründen nachvollziehbar sein, wie eine solche Entscheidung zustande kam.
Dr. Andreas Kaminski, Leiter der Arbeitsgruppe „Wissenschafts- & Technologiephilosophie der Computersimulation“ am HLRS
Wie so eine Einordnung aussehen könnte, dafür gibt es vor allem zwei Ansätze: ein auf ethischen Erwägungen beruhendes Regelwerk, das in die KI-Modelle integriert wird, oder die Zertifizierung von KI-Verfahren anhand ethischer Kriterien. „Beide Ansätze haben grundsätzliche Probleme, wenn es um die praktische Umsetzung geht“, sagt Kaminski. „Beim ersten Ansatz lassen sich keine impliziten Regeln berücksichtigen.“ Zum Beispiel legt die Straßenverkehrsordnung nicht fest, wie das Einfädeln bei dichtem Verkehr erfolgt – oft geht das nur ohne regelkonformes Warten. „Der zweite Ansatz wiederum lädt dazu ein, Grauzonen auszunutzen, und es bleibt unklar, wer die Entscheidungen letztlich getroffen hat“, so Kaminski.
Er ist Mitglied der AI Ethics Impact Group, eines Konsortiums, das die Technologieorganisation VDE und die Bertelsmann Stiftung gemeinsam initiiert haben. In die interdisziplinäre Gruppe fließt Expertise aus Informatik, Philosophie, Technikfolgenabschätzung, Ingenieurwesen und den Sozialwissenschaften ein.
„Wir haben ein praktisch einsetzbares Konzept zur KI-Ethik entwickelt, das drei Kriterien erfüllt“, erklärt Kaminski: „Erstens ist es bei pluralen Wertvorstellungen – also in unterschiedlichen Gesellschaften – nutzbar. Zweitens bewertet es eine KI immer im Kontext ihrer Anwendung. Drittens ist nachvollziehbar, wie die Bewertung zustande kommt.“
Ethische Werte messbar machen
Optisch dargestellt sind diese Ergebnisse in der Art des Energielabels, sozusagen als KI-Ethik-Label. „Unser Konzept ist für ganz unterschiedliche Gruppen geeignet, für Verbraucher, Betroffene, Entscheider, Einkäufer ...“, sagt Kaminski. „Bei Bedarf können sie mehr erfahren, als die optische Darstellung anzeigt. Das schafft für Unternehmen Anreize, ihre Algorithmen tatsächlich daran anzupassen.“
Das Konzept beruht nicht allein auf dem KI-Ethik-Label, das Werte wie Transparenz, Haftung, Privatsphäre, Gerechtigkeit, Zuverlässigkeit und Nachhaltigkeit in Kategorien von A bis G einteilt. Zwei weitere Elemente kommen hinzu. Da ist zum einen ein von dem Philosophen Christoph Hubig entwickeltes Modell, mit dem die genannten Kriterien messbar gemacht werden – daran hatte auch Kaminskis Team mitgearbeitet. „Wir haben Kriterien für die einzelnen Werte definiert und die Messgrößen identifiziert, die zu diesen Kriterien beitragen“, erläutert Kaminski. „So lassen sich Wertkonflikte und -abhängigkeiten berücksichtigen. Wir betrachten die Werte differenziert, sie müssen nicht absolut bestimmt werden.“ Dadurch bleibt Raum für die Bewertung einer KI im Anwendungskontext.
Nicht alles muss gleichermaßen reguliert werden.
Dr. Andreas Kaminski
Es macht einen Unterschied, ob eine KI ein Kleidungsstück aufgrund des bisherigen Kaufverhaltens empfiehlt oder eine medizinische Diagnose erstellt. Diesen Aspekt greift der Ansatz mit dem dritten Element auf, einer Risikomatrix. „Sie stellt die Größe des möglichen Schadens, den eine KI anrichten kann, der Stärke der Abhängigkeit von dieser KI bei der Entscheidung gegenüber“, erläutert Kaminski. „Daraus lassen sich Risikoklassen ableiten.“
Weitere Artikel aus forschung leben zum Thema Verantwortung
Der Vorschlag der AI Ethics Impact Group stößt auf Interesse. So hat sich das EU-Parlament informieren lassen, ebenso wie die High-Level Expert Group on AI, ein EU-Beratungsgremium. Auch bei der deutschen Ethikkommission und dem Ingenieursverband IEEE wurde das Konzept diskutiert. Das Justiz- und das Arbeitsministerium wollen nun in einem Projekt herausfinden, wie sich der Ansatz im Arbeits- und Verwaltungskontext umsetzen lässt.
Text: Michael Vogel
Dr. Andreas Kaminski, Leiter der Arbeitsgruppe „Wissenschafts- & Technologiephilosophie der Computersimulation“ am Höchstleistungsrechenzentrum (HLRS) der Universität Stuttgart, E-Mail, Telefon: +49 711 68565982
Wissenschafts- & Technologiphilosophie der Computersimulation am HLRS [en]