Dammbruch der KI? Zum Hype um “chatGPT”

von grenzfragen

Die aktuellen Titelstories der Presse über Künstliche Intelligenz lassen es erahnen: Der Hype um ChatGPT, den kürzlich der breiten Öffentlichkeit zugänglich gemachten KI-Sprachassistenten, ist kein Strohfeuer, sondern eher ein Flächenbrand, oder – positiv formuliert – ein rasantes Feuerwerk digitaler Innovation. Der Wettlauf der westlichen Tech-Giganten um die jeweils bessere KI droht aus dem Ruder zu laufen, Chinas Kontrollwahn hinkt dem intelligenten “Alibaba” hinterher, die Chat-Bots werden in Suchmaschinen genauso integriert wie in die verbreiteten Officeprogramme, und für manche Schüler:innen und Studierende gehört ChatGPT schon zum alltäglichen Handwerkszeug.

Die schwindelerregende Geschwindigkeit macht Angst – nicht nur kulturpessimistischen Bedenkenträgern. Dass Italien ChatGPT zeitweise gesperrt hatte, hört sich rigide an. Aber auch renommierte Wissenschaftler:innen, darunter nicht wenige KI-Expert:innen, warnen vor zivilisatorischem Kontrollverlust und fordern ein Forschungsmoratorium, notfalls umgesetzt durch staatliche Intervention. Ist ein Moratorium das Mittel der Wahl? Katharina Zweig, „die prominenteste deutsche Stimme, wenn es um Kritik an der KI geht“ (Die Zeit vom 13.04.23) bezweifelt dies. Die Abendveranstaltung am 8. Mai bot Gelegenheit, mit Katharina Zweig, Andreas Büsch und Monica Eggleston darüber zu diskutieren und sich auszutauschen, wie chatGPT und andere generative KIs sinnvoll eingesetzt werden können.

Dokumentation der Veranstaltung

    Mit Klick akzeptieren Sie Youtube-Bedingungen

      Die Impulse von Katharina Zweig aufzugreifen und medienpädagogisch zu reflektieren, hat sich Prof. Andreas Büsch, Leiter der Clearingstelle Medienkompetenz der Deutschen Bischofskonferenz, zur Aufgabe gemacht. Noch konkreter wurde es, als Dr. Monica Eggleston, Lehrerin für katholische Theologie und Englisch sowie Vorstandsmitglied im Verband der Religionslehrerinnen und Religionslehrer in der Diözese Rottenburg-Stuttgart, Nachdenkliches zum Einsatz von ChatGPT im Unterricht einbrachte. Die Veranstaltung spannte also den Bogen vom globalen Denken bis hin zum lokalen Umsetzen.

      Die Vorträge im einzelnen

      Katharina Zweig: “ChatGPT versteht nichts von der Welt.”

      Die Informatikerin Katharina Zweig gab Einblicke in die Funktionsweise des KI-gestützten Textbots chatGPT, dessen Veröffentlichung einen wahren Hype ausgelöst hatte. Da das Sprachmodell mit einer Unmenge an Texten trainiert worden sei, könne die Fähigkeit, ansprechende Texte zu generieren, in höchstem Maße beeindrucken. Entsprechend lägen die Stärken in der Sprach- und Textanalyse, die beispielsweise Schüler:innen bei der Verbesserung ihrer Schreibfähigkeit unterstützen könne. Verlassen sollte man sich auf die Richtigkeit der Aussagen allerdings nicht: Insofern Aussagen aufgrund von Wahrscheinlichkeiten generiert würden, unterliefen der KI in Einzelfällen drastische Fehler. So habe chatGPT im Brustton der Überzeugung Robert Habeck als Bundeskanzler benannt. Mit einem Entscheidungsbaum gab Zweig Kriterien zum sinnvollen Einsatz des Textbots an die Hand:

      Andreas Büsch: “KI darf auch Spaß machen!”

      Der Medienpädagoge Andreas Büsch führte Medienkompetenz als komplexes Bündel von Fähigkeiten ein und als zentralen Schlüssel für Teilhabegerechtigkeit. Damit wurden ethische Aspekte ausdrücklich und der Beitrag der Kirche zu einem nachdrücklichen Eintreten für einen Wertediskurs fest gemacht. An Texten der Deutschen Bischofskonferenz und der Publizistischen Kommission machte Büsch klar: In Anlehnung an die katholische Soziallehre könnten Menschenwürde, Freiheit und Verantwortung auch als Leitwerte bei der Digitalisierung Anwendung finden. Dann können Digitalisierung und KI zum Wohl von Mensch und Gesellschaft beitragen. Kritische Kompetenz vorausgesetzt sei daher eine proaktive, aber auch spielerische Nutzung von generativer KI durchaus zu empfehlen. In „KI-Schreibwerkstätten“ beispielsweise könnten derartige Kompetenzen gezielt trainiert werden. Letztlich gehe es bei der Frage, wie die digitale Transformation der Gesellschaft menschenwürdig gelingen kann, um die Forderung nach einer „Re-Sozialisierung“ der informatischen Werkzeuge.

      Monica Eggleston: “KI bietet Möglichkeiten der Differenzierung für unterschiedliche Lernniveaus.”

      Was dies aus der Perspektive der schulischen Bildung bedeutet, reflektierte Monica Eggleston aus der Perspektive von Lehrer:innen. Ausgangspunkt für Eggleston waren ebenfalls ethische Fragen, allen voran die Bemerkung von Meredith Wittaker, dass KI eine „Technologie der Mächtigen“ sei. Kritisch zu bewerten sei die Möglichkeit der Manipulation der Information, die Kollektivierung des Wissens zu Ungunsten des individuellen Wissens sowie die Gefahr rassistischer, sexistischer und gewalthaltiger Inhalte. Konkret könnten junge Menschen das Lernen verlernen und die Fähigkeit verlieren, selbstständig zu denken und Probleme zu lösen; die Urteilsfähigkeit könnte genauso eingeschränkt werden wie der zwischenmenschliche Dialog. Positiv hervorzuheben sei bei chatGPT das Tempo der Antworten, ihre Strukturiertheit und Differenziertheit. Bei Lehrenden ergäben sich daraus Vorteile bei Texterstellung, Textkontrolle und Unterrichtsplanung; bei Lernenden Themenerstellung und -strukturierung sowie Ideengenerierung. Ein Verbot sei daher weder sinnvoll noch realistisch. Es komme vielmehr darauf an, den Umgang mit dem Chatbot als Werkzeug zu erlernen und die Diskrepanz abzubauen zwischen einer medienkompetenten Minderheit und einer Mehrheit, die das Denken an die KI delegiert. Um chatGPT in der Schule einzusetzen, müssten außerdem Fragen des Urheberrechts, Fragen nach der Haftung für irreführende Antworten und Fragen der Transparenz geklärt werden. Schulen und Universitäten forderten daher einheitliche Richtlinien für den Umgang mit chatGPT, eine Erkennungssoftware für KI-Texte, eine Anpassung der Lehrerausbildung und neue Prüfungsformate.

      Schlaglichter aus der Diskussion

      Die anschließende Diskussion sorgte an manchen Stellen für Ernüchterung. So wünschenswert es auch sei: Eine Erkennungssoftware für KI-generierte Texte könne es grundsätzlich nicht geben, schon gar keine rechtssichere. Und die mehrfach geäußerte Forderung nach Transparenz sei bei der Komplexität der KI ebenfalls nicht hinreichend einzulösen. Aber auch ohne Transparenz sei ein legitimer Einsatz am Ergebnis zu messen. Ein analoges Beispiel für unseren bisherigen Umgang mit Intransparenz sei der Umgang mit Hunden. Drogenhunde unterstützen unsere Entscheidungen effektiv, und Blindenhunden vertrauen wir, dass sie Menschen sicher über die Straße bringen. Diese Unterstützung durch Hunde halten wir für legitim, auch ohne dass Hunde transparent für uns sind.

      Wo aber liegen die eigentlichen Gefahren? Einig war man sich darüber, dass sie nicht in heraufbeschworenen Dystopien einer sog. starken KI liegen, die Selbstbewusstsein entwickeln und uns die Kontrolle entziehen könnte. Bedrohlicher als eine starke KI sei eine schlechte oder missbräuchlich eingesetzte KI, wie sie sich jetzt schon in Fake News und Fälschungen von Fotos, Videos und Sprache zeige. Nicht gerade beruhigend sei dabei die Tatsache, dass die dazu nötige Hard- und Software immer günstiger verbreitet wird und leicht in falsche Hände geraten kann.

      Übrigens: Bei privaten Unternehmen sei die KI-Entwicklung nicht zwangsläufig in „falschen Händen“. Zugespitzt auf eine Gegenthese: Man könne doch froh sein, dass private Firmen technische Innovationen sehr viel effizienter voranbringen als der öffentlicher Sektor. Wohl aber bedürfe es hier einer geeigneten, demokratisch legitimierten Regulierung (statt des kürzlich in einem Expert:innenbrief geforderten Moratoriums). Bemühungen wie der AI-Act auf europäischer Ebene könnten hier modellhaft sein.

      Von der Vielzahl der eingebrachten, spannenden Aspekte sollen einzelne Themen bei Folgeveranstaltungen aufgegriffen und vertieft werden.

      Die Referierenden

      Professor Andreas Büsch: Professor für Medienpädagogik und Kommunikationswissenschaft an der KH Mainz; Leiter der Clearingstelle Medienkompetenz der Deutschen Bischofskonferenz

      Dr. Monica Eggleston: Theologin, Kanonistin, Lehrerin für katholische Theologie und Englisch; Vorstandsmitglied im Verband der Religionslehrerinnen und Religionslehrer in der Diözese Rottenburg-Stuttgart

      Prof. Dr. Katharina Zweig: Informatikerin an der Rheinland-Pfälzischen Technischen Universität Kaiserslautern-Landau, Gründerin des Studiengangs „Sozioinformatik“; Mitglied der Enquetekommission „Künstliche Intelligenz“ des Deutschen Bundestages

      Erwähnungen und Verweise im Video

      Arbeitshilfe “Medienbildung und Teilhabegerechtigkeit” der Deutschen Bischofskonferenz

      Thesenpapier “KI und Digitalität” der Publizistischen Kommission

      Eingangszitat Eggleston, OpenAI im Time Magazine

      Schlusszitat Eggleston von Clemens Cap

      Kultusministerium BW: ChatGPT – Künstliche Intelligenz im Unterricht – Informationsangebote für Lehrkräfte

      Olaf-Scholz-Fake demonstriert von Sascha Lobo bei Markus Lanz

      Forderung nach einem Moratorium in: Pause Giant AI Experiments: An Open Letter

      Regulierung: AI Act , Gesetzesvorschlag der Europäischen Kommission

      Christian Stöcker im Spiegel

      Divsi-Studie U9

      Presseschau zum Thema KI

      Dieser Inhalt ist blockiert. Akzeptieren Sie Cookies, um den Inhalt zu sehen.