Die Menschen führen einen erbitterten Krieg gegen Künstliche Intelligenz – Zukunftsszenario oder doch nur ein weiterer Film, der die Ängste der Menschen vor dem Weltuntergang schüren soll? Welche Gefahren von KI ausgehen, diskutierte am 8. November 2023 eine hochkarätige Runde auf Initiative der Universität Stuttgart in der Stadtbibliothek. Unter dem Titel „Gezähmte Bots: Wer soll KI regulieren – und wie?“ trafen Datenschutz auf Wirtschaftsförderung, utilitaristische auf deontologische Perspektiven auf dem Podium aufeinander.
Mit dieser Podiumsdiskussion wurde der letzte Höhepunkt der Interdisziplinären Reihe „Leben, Lernen und Schreiben mit KI: ChatGPT und die Folgen“ erreicht, die vom Internationalen Zentrum für Kultur- und Technikforschung (IZKT) und dem Interchange Forum for Reflecting on Intelligent Systems (IRIS) der Universität Stuttgart in Kooperation mit der Stadtbibliothek Stuttgart ausgerichtet wurde. In der von Félicie Kohlrausch (IZKT) konzipierten und von der Prorektorin für Informationstechnologie, Dr. Simone Rehm, begleiteten Reihe wurden verschiedene Aspekte dieses relevanten Themas auf hohem Niveau besprochen.
Unberechenbar oder durchschaubar?
Selbst Wissenschaftler*innen verstehen nicht, wie Künstliche Intelligenz arbeitet, so Steffen Staab, Professor für Artificial Intelligence und Machine Learning sowie IRIS-Sprecher, in seinem Grußwort. So kann keiner vorhersagen, welche Ergebnisse solche Systeme produzieren. Und genau darin liegt das Problem: Wie sollen gefährliche Anwendungsszenarien vorausgeahnt und reguliert werden? Können Gesetze, wie aktuell der Artificial Intelligence Act (AI Act) der EU, schnell und maßvoll genug regulieren, ohne Innovationsbremse zu sein?
Mit Prof. Tobias Keber war der Landesbeauftragte für Datenschutz und Informationsfreiheit Baden-Württemberg als Verfechter von Einhegung der Gefahren durch gesetzliche Regelungen auf der Bühne. „Regulieren muss man, wenn etwas gefährlich ist. Nur wenn Mensch und KI zusammenwirken, ist das nicht gefährlich,“ so Keber. Als Beispiele für gewinnbringenden, ungefährlichen Einsatz nennt Keber das Hautscreening, als Beispiel für verbotenen Einsatz von Kameraüberwachung mit biometrischer Fernidentifikation. „Es gibt Fälle, wo ich KI nicht haben möchte,“ so sein engagiertes Statement. Selbst China, als KI-Vorreiter, habe inzwischen eine starke Regulierung.
KI für kreative und produktive Arbeit nutzen
Zu den Gefahren beim Einsatz künstlicher Intelligenz gehöre eine ganze Liste, etwa Diskriminierungsrisiken, Fehlinformation, Halluzination, das Generieren von Schadcode und vieles mehr, so Dr. Thilo Hagendorff, wissenschaftlicher Mitarbeiter der Forschungsgruppe IRIS3D an derUniversität Stuttgart. Man dürfe aber nicht vergessen, dass der Einsatz von KI auch ein Dammbruch an Produktivitäts- und Kreativitätssteigerung darstelle. „Hier ist etwas Tolles geschaffen worden!“, macht sich der Wissenschaftler für die Chancen der neuen Technologie stark.
Prof. Michael Weyrich vom Institut für Automatisierungstechnik und Softwaresysteme an der Universität Stuttgart geht sogar noch einen Schritt weiter. Er ist sich sicher, dass sich die „Kinderkrankheiten von ChatGPT“ auswachsen werden. Für ihn stehen Regulierungsmaßnahmen nicht an vorderster Stelle. Im Gegenteil: Erst müssen die Systeme funktionieren, ehe man eingreifen könne, so Weyrich. Oder noch konkreter: „Zu versuchen, die Zukunft zu antizipieren und dann frühzeitig zu verbieten, ist der falsche Ansatz!“
Das Ziel: nichtdiskriminierende Systeme
Immer wieder kommt die Diskussion auf „bias“, also die Voreingenommenheit (etwa rassistischer Art) von Künstlicher Intelligenz aufgrund von einseitigem Trainingsmaterial. „Wenn man den bias nicht aus dem System bekommt, sind die Kosten die Fairness,“ sagt Moderatorin Eva Wolfangel und fragt nach Lösungen. Weyrich wendet ein, auch Menschen seien rassistisch, der Königsweg bestehe hier also nicht in einem regulierenden Miteinander von Mensch und Maschine. Aber er sagt auch: „Wir wünschen uns alle nichtdiskriminierende Systeme. Diesem Ziel müssen wir uns schrittweise nähern.“
Als möglichen Weg bias zu verringern, wird von Hagendorff eine Offenlegung der Trainingsdaten gefordert. Der Status quo sei, dass keines der zehn großen Sprachmodelle die Erfordernisse des AI Act erfüllt. Seiner Meinung nach ließen sich Anwendungsfälle besser regulieren als die KI selbst. Angst vor dem Weltuntergang durch Künstliche Intelligenz müsse man allerdings nicht haben. Die empirische Evidenz zu solchen Bedrohungsszenarien gehe gegen Null, schließt Hagendorff.
Der Abend endet mit positiven Einschätzungen zu den Chancen von KI. Unsere Kompetenzen beim Faktenchecken werden zukünftig stark gefragt sein und sich verbessern, genauso wie die Qualität von Texten im Allgemeinen. „KI wird in vielen Bereichen nutzen und das ist auch gut so. An anderer Stelle müssen rote Linien gezogen werden“, so das abschließende Statement von Datenschützer Keber.
Die Universität Stuttgart lädt Studierende und Beschäftigte zu einem Diskurs über die Bedeutung von Chatbots in der Wissenschaft ein. Alle Hintergrundinformationen, Veranstaltungen und News finden Sie auf unserer Webseite ChatGPT an der Universität Stuttgart zusammengefasst.