Herausforderung für die Lehre

Wie genial oder gefährlich sind KI-Tools wie ChatGPT, die derzeit für Hype und Hysterie gleichermaßen sorgen? Wie arbeiten Forschende der Hochschule Darmstadt mit diesen neuen Anwendungen und wie verändern sie künftig die Lehre? Bei Studierenden sind ChatGPT und Co. jedenfalls weit verbreitet. Zwei Drittel der Befragten nutzen sie bereits für ihr Studium oder haben sie zumindest schon einmal für Studienzwecke getestet, ergab eine deutschlandweite Umfrage von h_da-Forschenden.

Von Astrid Ludwig, 21.6.2023

Die Fragen waren schnell zu beantworten: „Nutzen Sie KI-Tools im Studium und wenn ja, welche und wofür?“ Länger als zehn Minuten sollten Studierende für den Fragebogen nicht brauchen. „Wir wollten möglichst viele Studierende für unsere Kurzstudie erreichen“, sagt Jörg von Garrel, h_da-Professor für Prozess- und Produktionsinnovation mit Schwerpunkt quantitative Sozialforschung. Was mit wenigen Studierenden der eigenen Hochschule begann, weitete sich rasch auf die gesamte Republik aus. 400 Hochschulen und 4000 Lehrende deutschlandweit schrieb das Team um Professor von Garrel an. Hinzu kamen Informationen auf Plattformen wie „Studieren.de“. Die Folge: eine Flut von Antworten. Mehr als 6300 Studierende füllten bis Anfang Juni den Fragebogen aus. „Mit so einem enormen Rücklauf hatten wir nicht gerechnet.“ Die Studie ist nicht nur eine der ersten mit solch hohem Feedback, sie zeigt auch „wie aktuell und brisant das Thema ist“, betont der Wissenschaftler.

ChatGPT vorn

Die Befragung lief anonym. Zweidrittel gaben an, KI für ihr Studium zu nutzen, ein Drittel verneinte das. Das h_da-Team hatte um ehrliche Antworten gebeten, „doch wahrscheinlich liegt der Nutzungsgrad sogar noch höher“, vermutet von Garrel. Das mit Abstand meistgenutzte Tool ist ChatGPT, berichtet er. Ebenfalls vertreten ist die deutsche Anwendung DeepL, etwa für Übersetzungen. Wichtig war den Forschenden des Fachbereiches Gesellschaftswissenschaften, ein breites Bild durch alle Disziplinen zu zeichnen. Denn da gibt es durchaus Unterschiede, nicht nur in der Häufigkeit, sondern auch der Art der Nutzung. Am häufigsten suchen danach Studierende der Ingenieurwissenschaften und Informatik Unterstützung durch die KI, gefolgt von Studierenden der Mathematik und Naturwissenschaften – in beiden Studienbereichen insbesondere für Programmierungen oder Simulationen. Studierende der Geistes- sowie Wirtschafts-, Rechts- und Sozialwissenschaften gaben an, sich Texte und Analysen erstellen zu lassen oder die Tools für Recherche und Literaturstudium zu verwenden. Im Kunst- und Architekturstudium ist die KI häufig Ideengeberin, hilft bei Design und Konzeptentwicklung.

Für den h_da-Professor, der sich schwerpunktmäßig mit dem Verhalten von Menschen gegenüber innovativen Technologien wie KI und selbstlernenden Systemen und der Frage befasst, wie Digitalisierung, Nachhaltigkeit oder demografischer Wandel die Arbeitswelt verändern, steht fest: „ChatGPT und Co. sind Gamechanger“. Die Studie habe gezeigt, wie schnell diese Tools in die Gesellschaft diffundiert seien. Auch in der Hochschullehre werde es zu signifikanten Veränderungen kommen. Die Anwendungen seien intelligent, aber durch statistische Methoden und trainierte Daten determiniert. „Unseren wissenschaftlichen Ansprüchen genügt ChatGPT nicht“, sagt der Gesellschaftswissenschaftler.

Gravierende Änderungen für die Lehre

Von Garrel hat die KI selbst ausprobiert. „Der Text war gut, aber die Quellenangaben zu meinen wissenschaftlichen Arbeiten waren falsch oder existierten nicht.“ Fachleute sprechen von Halluzinationen, wenn die KI einfach Antworten erfindet, weil sie nicht auf entsprechende Daten trainiert wurde. Für eine gute Lehre müsse daher künftig gelten: „KI-Tools sind ein Werkzeug, aber kein Ersatz für wissenschaftliches Arbeiten oder gründliche Recherche.“ Er mahnt zur kritischen Reflektion. Richtig mit ChatGPT und Co. umzugehen, „muss Inhalt unserer Lehre werden“. KI könne die Effizienz steigern, Ideengeberin oder Assistenz sein, „aber entscheiden, einordnen, reflektieren, das ist nach wie vor unsere Aufgabe“.

Der Sozialforscher wägt Potenzial und Gefahr ab: „Innovationen haben immer ein schöpferisches und ein zerstörendes Element.“ Er findet die Entwicklung spannend. Doch wie können Lehrende künftig unterscheiden, ob die Haus- oder Bachelorarbeit von Studierenden oder der KI stammt? „Das wird sicherlich schwieriger werden.“ Didaktik und Prüfungsformen müssten sich ändern. „Wir können Noten nicht nur auf Basis schriftlicher Arbeiten vergeben und sollten zukünftig öfter auch mündlich abfragen, ob Inhalte verstanden wurden.“

Neue Prüfungsformate

Ähnlich sieht das Markus Döhring, Professor für Data Science und Grundlagen der Informatik an der h_da. Er rät zur Abkehr von rein schriftlichen Prüfungen. „Der persönliche Kontakt wird wichtiger. In Form von Kolloquien, mündlicher Verteidigung von Arbeiten und Gesprächen, die die Versiertheit mit einem Thema belegen.“ Bei hohen Studierendenzahlen wie in der Informatik werde die individuelle Beurteilung allerdings nicht leichtfallen: „Zur Qualitätssicherung wäre ein besserer Betreuungsschlüssel künftig nötig“, meint Döhring. Denkbar sei auch, mehrere Module für weniger, aber umfassendere Prüfungen zusammenzufassen. „Komplexe Zusammenhänge und Anforderungen kann die KI nicht“, sagt der Informatiker. Zumindest noch nicht.

Döhring fasziniert die Schnelligkeit, Qualität und der hohe Anwendungsgrad der Tools. „Vor drei oder vier Jahren wäre die heutige Situation nicht vorstellbar gewesen.“ Er arbeitet seit Jahren in der angewandten Forschung zur Künstlichen Intelligenz. So unterhält die Steinbeis Transfer GmbH an der h_da seit Mai zusammen mit der R+V Versicherung ein Innnovationslabor, in dem es darum geht, wie KI für die Verbesserung des Kundensupports eingesetzt werden kann. Gemeinsam mit Professor Oliver Skroch arbeitet Döhring unter anderem daran, die Prozesse zur Bearbeitung von Mails und Anfragen der Versicherten effektiver zu gestalten. Die Möglichkeiten, die Künstliche Intelligenz und selbstlernende Systeme bieten, werden genutzt, „aber unter technischen Rahmenbedingungen, die Transparenz und Datenschutz bieten“.

Feintuning für eigene KI-Modelle

Denn das ist das Problem bei nicht einsehbaren Systemen wie ChatGPT und Co. Entwickelt hat ChatGPT die amerikanische Firma OpenAI, in die Microsoft zweistellige Milliarden-Beträge investiert hat. GPT steht für „Generative pre-trained Transformer“. Damit das System universell auf Fragen antworten, Texte, Codes oder Bilder generieren kann, wurde die KI auf Milliarden von Daten, Webseiten, Informationen aus dem Internet trainiert. „Wir können nicht beurteilen, wie die Ergebnisse zustande kommen, weil wir zum Beispiel die Trainingsdaten nicht kennen“, sagt Döhring. Er hat zudem Datenschutzbedenken: Wer die Tools nutzt, hat keine Kontrolle über seine Daten, da die Server in den USA stehen.

Es gibt jedoch Alternativen, bei denen das Trainingsmaterial bekannt ist. Initiativen wie etwa „Common Crawl“, die gemeinschaftlich Daten einsammeln, oder ähnliche Systeme, die Wikipedia nutzen. Eine Datenfülle wie bei ChatGPT oder Bard können sich allerdings nur Konzerne wie Microsoft oder Google bisher leisten. „Es ist aber gefährlich, nur den großen Anbietern die Definition zu überlassen, was die Wahrheit oder eine gute Antwort ist“, warnt der Professor. Das biete zu viel Spielraum für Manipulationen. Für seine Forschungsarbeit nutzt Döhring daher auch Open-Source-Systeme, die er durch eigene Programmierungen und spezielle Aspekte, Eigenschaften oder Sprachbesonderheiten ergänzt. Feintuning nennt sich der passgenaue Zuschnitt der Anwendung auf die Bedürfnisse der Nutzerinnen und Nutzer. Im Masterstudiengang Data Science lehrt Döhring seine Studierenden diese Art Text- und Webmining, bei der es darum geht, welche Daten und vortrainierten Modelle sich wie nutzen lassen. Hinzu kommt demnächst eine Vorlesung zusammen mit seinem Kollegen Michael Braun über „moderne neuronale Netzwerkarchitektur“.

Entwicklung eines „KI-Testmanagements“

Das Halluzinieren, die Schwachstelle der Chatbots, ergibt sich allerdings bei allen GPT-Systemen. „Das lässt sich nur durch eine systematische Abfrage der Datenbanken beheben und das Einpflegen von noch mehr Informationen“, sagt Döhring. Ein Mangel an Trainingsdaten, der sogenannte „Algorithmic Bias“, ist auch der Grund für die oftmals kritisierte fehlende Diversität oder rassistische Benachteiligungen. Döhring mahnt daher: Wer die Tools nutze, müsse stets Texte und Quellenangaben überprüfen.

Das Europaparlament will ChatGPT und Co. Grenzen setzen. Das neue KI-Gesetz soll Entwicklungsfirmen verpflichten, nicht nur zu dokumentieren, welche Trainingsdaten sie nutzen, sondern die Systeme im Vorfeld auch auf mögliche Risiken für die Gesundheit, Grundrechte, Umwelt, Demokratie oder Sicherheit zu prüfen. Und sie sicher gegenüber Cyberangriffen zu machen. Dass KI-Systeme Schaden anrichten können, glaubt auch Informatiker Döhring. Etwa wenn sie Zugriff auf das Internet bekämen und dort Sicherheitslücken ausnutzen könnten. Oder wenn unerwartete und unerwünschte Nebeneffekte auftreten wie das Halluzinieren. „Es wird eine große Aufgabe für die Informatik sein, ein KI-Testmanagement zu entwickeln“, sagt der h_da-Forscher.

Weiterführende Links

Website von Prof. Dr. Markus Döhring: fbi.h-da.de/personen/markus-doehring

Interview mit Markus Döhring im Main-Echo: www.main-echo.de/region/rhein-main-hessen/daten-sind-der-rohstoff-der-zukunft-art-6705715

Website von Prof. Dr. Jörg von Garrel: fbgw.h-da.de/fachbereich/personen/professorinnen/prof-dr-joerg-von-garrel

Erfahrungsbericht zum KI-Tutorial an der h_da im März 2023: https://dgi-info.de/die-modelle-hinter-chatgpt-ki-tutorial-an-der-hochschule-darmstadt/ 

Kontakt

Christina Janssen
Wissenschaftsredakteurin
Hochschulkommunikation
Tel.: +49.6151.533-60112
E-Mail: christina.janssen@h-da.de