Das Interesse war sichtlich groß, als am 12. Juni 2023 IRIS und IZKT zur universitätsinternen Podiumsdiskussion "Lerncoach oder Ghostwriter? Akademisches Arbeiten in Zeiten von KI-Chatbots" über den Umgang mit KI-Systemen in Forschung und Lehre einluden. Die qualitativen Sprünge in der Entwicklung von KI-Systemen, die durch ChatGPT seit November 2022 in aller Munde seien, machten diese Diskussion dringend notwendig, erklärte Dr. Simone Rehm, Prorektorin für Informationstechnologie der Universität Stuttgart und Mitglied des Rektorats. In der Forschung, in der Lehre, im Prüfungswesen – überall stellten sich ganz neue Fragen.
Diese Fragen, so Rehm in ihrer Einleitung, seien aus zwei verschiedenen Perspektiven zu stellen: zum einen für das Individuum, das sich nun helfen lassen kann, das aber auch vor Plagiatsgefahr gestellt oder in der eigenen Forschungspraxis hinterfragt wird; und zum anderen für die Universität als Institution, die Regeln, Handlungsmaximen, Modelle braucht, um Klarheit für alle zu schaffen.
Der algorithmische Hiwi - mehr als ein stochastischer Papagei
Dr. Thilo Hagendorff von IRIS stellte zunächst einmal die technischen Grundlagen überblicksartig dar. Seine Erläuterungen zeigten vor allem eines: Längst sind die aktuellen Modelle keine „stochastischen Papageien“ mehr, sondern zeigten „emergente Fähigkeiten“. Wie auch in anderen Gebieten sei das Ganze mehr als die bloße Summe der Teile; gerade die Kombination verschiedener Modelle erlaube es, dass moderne KI-Systeme Witze erklären oder rudimentäre visuelle Repräsentationen erarbeiten könnten. Man habe es also durchaus mit kompetenten „Hiwis“ zu tun. Daher müsse es darum gehen, das „prompt engineering“ als neue Kernkompetenz zu begreifen: Die neuen „intelligenten Hiwis“ muss man auch intelligent anzuleiten wissen, sonst machen sie nur Unsinn.
Reflexion bewahren
Prof. Katharina Hölzle, die seit 1. April 2022 das Institut für Arbeitswissenschaft (IAT) der Universität Stuttgart sowie das Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO leitet, stimmte dieser Einordnung zu: In der Tat stellen uns die neuen Technologien vor eine ganz neue Herausforderung, denn viele Tools leisten Dinge, die man bisher für exklusive Kernkompetenzen von white-collar workern hielt – auch im Bereich der Forschung. KI-Systeme können prinzipiell einen Forschungsstand aufarbeiten und darstellen; sie können sogar Hypothesen empirisch prüfen, viel besser und vor allem viel schneller als Menschen. Umso wichtiger werde es daher, diejenigen Kompetenzen zu pflegen, die dem Menschen blieben: reflektieren, einordnen, abwägen. Damit würden sich aber alte Fragen neu stellen: Was ist Wissenschaft? Wie wollen und können wir sie betreiben? Alte Antworten entfallen hier weitgehend, so Hölzle, ganz neue müssten im ständigen Dialog erarbeitet werden.
Kopie oder geistiges Eigentum der KI?
Jun.-Prof. Amrei Bahr vom Institut für Philosophie, Spezialistin für moralphilosophische Fragen des Kopierens, argumentierte zunächst, dass die Frage, ob und inwiefern beispielsweise ChatGPT Plagiate produziere, gar nicht so einfach zu beantworten sei. Zumindest eine Autorenschaftsanmaßung durch die Maschine liege nicht vor; dennoch könne es sein, dass ein KI-System Inhalte einfach kopiere und rekombiniere. Ob hier geistiges Eigentum geschaffen werde, sei von außen nur schwer zu beurteilen. Sie unterstrich, was auch Hagendorff in der Einleitung erwähnte: KI-Systeme können immer auch problematische Strukturen reproduzieren, beispielsweise Vorurteile, Stereotypen, strukturelle Ungleichheiten. Gesucht sei also ein verantwortungsvoller Umgang mit KI in Forschung und Lehre.
KI in der Lehre
Aber wie stark greifen KI-Systeme heute längst in die Lehre ein?, fragte Rehm den Leiter der Software Quality and Architecture Group am Institut für Software Engineering, Prof. Steffen Becker. Schließlich sei ja bekannt, dass KI-Systeme längst nicht nur im Lokaljournalismus die Menschen ersetzten, sondern dass sie auch programmieren könnten. In der Tat, so Prof. Becker, seien KI-Systeme als unterstützende Assistenten beim Programmieren bereits üblich. Aber je komplexer die zu bewältigenden Aufgabenstellungen seien, umso wahrscheinlicher wären Programmierfehler durch ChatGPT. Programmierfehler in einem Code zu finden, den man nicht selbst verfasst habe, sei aber ganz besonders schwer. Wirklich verstehen könne man am ehesten jene Programme, die man selbst geschrieben habe – deswegen bleibe es weiter wichtig, Programmieren zu lernen. Wie bei einem intelligenten und schnellen Hiwi müsse man eben auch hier die von ChatGPT generierten Ergebnisse zu überprüfen wissen. Das kann nur, wer auch selbst wirklich gut programmieren kann.
Erstaunlich war der Einblick, den Laura Wansitler als Vertreterin der Studierenden in heutige Praxis bot: Sie benutze ChatGPT als Brainstorming-Partner, entwickle im Dialog mit der Maschine Aufgaben für Übungen und lasse sich auch abfragen. Was früher in Studi-Cliquen üblich war, erledigt heute in zunehmendem Maße die Maschine, so darf man folgern: die KI als Gesprächspartnerin, Abfragehilfe, Inspirationsquelle im studentischen Alltag. Was aber, wenn die Tutorin Aufgaben mit KI erstellt, die die Studierenden dann mit Hilfe von KI lösen? Wird der Mensch zum antiquierten Botengänger, der lediglich der KI dabei hilft, sich mit sich selbst zu unterhalten?
Hagendorff verstärkte dieses Bild einer rasanten Entwicklung: Schon jetzt seien KI-Systeme in manchen Bereichen „superhuman“, verfügten also über übermenschliche Fähigkeiten. So sei die Erkennung komplexer medizinischer Diagnosen auf der Basis von Symptomen durch KI-Systeme bereits heute besser als durch Menschen. Wohin sich die Emergenz-Effekte noch entwickeln werden, sei nicht abzusehen. Umso wichtiger sei, die Grenzen des Einsatzes gemeinsam zu bestimmen: Was wollen wir wie machen?
KI mit Experimentierfreude begegnen
Rehm öffnete daraufhin die Debatte mit dem Publikum. Es folgten Beiträge aus ganz verschiedenen disziplinären und institutionellen Perspektiven: von Lehrenden und Studierenden, aus Institutionen wie der Schreib-Werkstatt, aus der Geschichtswissenschaft, der Germanistik, der Chemie und der Informatik.
Ein wiederkehrendes Thema dabei war die Bedeutung des Schreibens. Entsteht hier – vor allem in den Geisteswissenschaften – viel unnötige Redundanz? Ist das klare Denken tatsächlich an das klare Schreiben gekoppelt – oder kann man auch erst mal denken, ohne gleich schreiben zu müssen? Welchen Stellenwert will man der Schreibkompetenz einräumen – in welchen Fächern? Und welche Rolle soll selbstlernenden Systemen dabei erlaubt werden: Die Rolle des Co-Autors, des redigierenden Coach, gar des Ghostwriters? Philosophin Bahr schlug vor, dass die Universität exemplarische Darstellungen für die Handhabung von KI-Systemen erstellen sollte. Eine Task Force könnte entsprechende Leitlinien erarbeiten, die auch die Rechtssicherheit für alle Seiten erhöhen müssten. Hier stimmte die Studentin Wansitler zu: Für Studierende stelle die rechtliche Unsicherheit ein reales Problem dar: Was genau sei erlaubt, wo die Grenze zum Plagiat überschritten?
Becker und Hagendorff argumentierten ergänzend dafür, das „prompt engineering“ als neuen "Skill" sehr ernst zu nehmen, diese neue Schlüsselqualifikation systematisch zu vermitteln. Zudem, so Becker, werde eine Kompetenz immer wichtig bleiben, ja sogar noch wichtiger werden: Lesen, Prüfen, Bewerten. Denn nun sei man ja auch in zunehmendem Maße mit der Frage konfrontiert, ob vorliegende Daten oder Darstellungen schlichter Fake seien.
Aus der Soziologie kam der Hinweis auf die Effekte des „de-skilling“: Was Maschinen dem Menschen abnehmen, droht dieser zu verlernen. Das mag – wie im Falle des Taschenrechners – nicht immer schlimm sein, aber es kann auch zum Problem werden. Wie wollen wir – nicht nur als Universität, sondern als Gesellschaft – mit dieser Gefahr umgehen? Welche Kompetenzen sollten wir vor dem „de-skilling“ schützen? Und wie?
Hölzle brachte einen Wunsch auf den Punkt, den viele auf dem Podium und im Saal zu teilen schienen: Sie forderte Technologieoffenheit, Mut, Experimentierfreude und die Bereitstellung von Freiräumen. Es gehe darum, den "Negativity bias" zu überwinden und die teilweise schmerzhaften Veränderungen aktiv zu gestalten. Vieles werde sich ändern, aber das müsse eben nicht nur schlecht sein.
Prorektorin Rehm dankte für die lebendige Debatte. „Das Thema wird bleiben. Die Zahnpasta geht nicht zurück in die Tube!“, schloss sie, und appellierte abschließend daran, die Regeln der akademischen Integrität zu verteidigen und zu adaptieren. Dass die ganze Wissenschaftswelt nun fasziniert vor der Frage steht, wie mit dieser Zahnpasta zu verfahren sei, wurde an diesem Abend überdeutlich. Es zeigte sich auch, wie wichtig, inspirierend und erhellend ein Abend werden kann, wenn die Menschen an einer Universität zum offenen Austausch zusammenfinden. Der langanhaltende Applaus unterstrich, dass das Gespräch nicht am Ende ist.
Die Veranstaltungsreihe „Leben, Lernen und Schreiben mit KI: ChatGPT und die Folgen“ vom IZKT und IRIS der Universität Stuttgart und begleitet von der Prorektorin für Informationstechnologie Dr. Simone Rehm wird am 11. Juli 2023, 19:30 Uhr, fortgesetzt. Das Thema wird dann die Auswirkung von KI auf die Schulen sein – interessant nicht nur für alle Lehramtsstudierenden, sondern auch für Eltern und Schüler.
Autor: Felix Heidenreich
Forsetzung "Die Bots und die Lehrkräfte – wie verändert KI die Schulen?"
Die Universität Stuttgart lädt Studierende und Beschäftigte zu einem Diskurs über die Bedeutung von Chatbots in der Wissenschaft ein. Hintergrundinformationen, Veranstaltungen und News finden Sie auf unserer Webseite ChatGPT an der Universität Stuttgart zusammengefasst.