
Letzte Woche durfte ich an der Universität Leipzig einen Online-Workshop zur Frage durchführen, wie sich Forschung und Lehre in der nahen Zukunft verändern werden - oder sollten.
Das hat mich besonders gefreut, da ich bereits letzten Sommer von der Theologischen Fakultät eingeladen worden war (danke nochmals an Nicole Oesterreich, die das eingefädelt hatte), um über Theologie und KI zu sprechen. Den Vortrag kann man hier nachschauen:
Es hat mich sehr gefreut, dass die Fakultät daraufhin eine ganze Veranstaltungsreihe zur Schnittstelle von KI und Geisteswissenschaften durchgeführt hat. (Manche dieser Veranstaltungen sind online besuchbar.)
Wie ich auch eingangs des besagten Vortrags erwähne, finde ich es für mich selbst sehr hilfreich, regelmäßig über dieses Thema zu sprechen, um mich immer wieder zu einer ehrlichen Bestandsaufnahme zu zwingen: Einerseits verhindert dies, dass man umwälzende Veränderungen einfach verschläft, weil sie sich so schnell normal anfühlen (Beispiel: Integration von Bilderkennung in große Sprachmodelle!), andererseits kann man so aber auch immer wieder prüfen, ob man nicht vielleicht doch auch einem Hype aufgesessen ist (Beispiel: AutoGPT).
Außerdem ist es immer wieder spannend, in solchen Veranstaltungen in den Dialog mit Menschen zu kommen, die in ganz anderen Bereichen - der Wissenschaft oder auch darüber hinaus - arbeiten und entsprechend ganz andere Perspektiven mit sich bringen. Beispielsweise fand ich es diesmal sehr erhellend, im Gespräch mit einem Jura-Professor zu sehen, dass die Produktion von KI-Texten in diesem Bereich mit ganz anderen Fragestellungen im Kopf betrachtet wird.
Einen solchen Dialog finde ich daher viel nützlicher, als die allerorts anzutreffenden Einführungen zu bestimmten Prompting-Strategien, mit denen man angeblich schnell ans Ziel kommt und dabei auch noch unermesslich reich wird. Wichtiger als irgendwelche "KI-Skills" scheint mir, dass wir die Entwicklungen wach verfolgen und immer reflektieren, was dies für unsere Praktiken in Forschung und Lehre (z.B. das Lesen und Schreiben) bedeutet - beziehungsweise auch, wo wir vielleicht etwas zu einem Diskurs beizusteuern haben, der ganz von alleine in Richtung Machbarkeit und Effizienz abdriftet.
Trotzdem: Auch ganz praktische Implikationen für den universitären Alltag, sollte man bei all dieser Reflexion natürlich nicht ausblenden. Es wird bald ein ausführlicher Aufsatz von mir zur Thematik des Workshops erscheinen, Deswegen will ich hier in diesem kurzen Rückblick nur auf zwei Aspekte eingehen, die - miteinander verbunden - mir doch einen recht signifikanten Fortschritt im Hinblick auf das Potenzial von KI für die Lehre darstellen.
Nachdem die Integration von Plugins in ChatGPT im März 2023 von manchen noch als letzter Schritt auf dem Weg zur Superintelligenz gehypt wurde, ist es doch merklich still geworden um diese Neuerung, die in der Theorie natürlich nach wie vor viel Potenzial hat, letztlich aber, wie so vieles, an Finanzierungs- und Copyrights-Fragen scheitert. Seit November gibt es nun auch die benutzerdefinierten GPTs und es stellt sich die Frage, ob diese mehr Erfolg haben werden. Auch wenn diese Neuerung einige Startup-Unternehmen in den Ruin getrieben haben dürfte, ist dieses Feature technisch gesehen kein so großer Fortschritt: Für "Chats mit PDFs" gab es auch zuvor schon Anbieter, die GPT mit Vektor-Datenbanken kombiniert hatten. (Das sind die Unternehmen, die es jetzt schwer haben dürften.) Und Systemvorgaben (die, anders als Prompts im Chatfenster von ChatGPT, nicht einfach im Laufe des Gesprächs vergessen werden) gibt es im Playground schon lange - und für viele Spezialanwendungen besser. Ich habe etwa versucht, ein GPT darauf abzurichten, automatisiert einen wissenschaftlichen Kommentar zu einem biblischen Buch zu schreiben. Der Vorgang ist relativ komplex, weil zunächst der griechische Text aus einer bestimmten Perspektive kommentiert werden und danach Sekundärliteratur integriert werden muss. Da verrennt sich mein GPT noch recht regelmäßig. Im Playground läuft das Ganze zumindest schon auf Seminararbeits-Niveau sehr zuverlässig.
Trotzdem sehe ich bei den benutzerdefinierten GPTs viel Potenzial für die Lehre. Beispielsweise kann man in nur wenigen Minuten einen Chatbot erstellen, der Studierenden dann Rückfragen zum Syllabus erlaubt (hier ein Beispiel anhand eines alten Kurses von mir). Aber bis zu einem gewissen Umfang funktioniert eben auch die Integration ganzer Vorlesungsskripte sehr gut. Zudem lässt sich auf diese Weise eben auch die Art der Interaktion gut einstellen, sodass man etwa die typische KI-Ausgeglichenheit, die einem beim Lernen sonst schnell auf den Keks gehen dürfte, gut vermeiden kann.
Vor allem in Kombination mit der ChatGPT-App sehe ich hier eine Konstellation, die längerfristig für eine Revolution der Lehre - in ganz vielen Bereichen - nach sich ziehen dürfte. Es ist einer der in meinen Augen erstaunlichsten Umstände, dass in der gesamten Berichterstattung über KI für die meisten Verbraucher untergegangen zu sein scheint, dass die wirklich phänomenale Transkriptions-Leistung von Whisper mittlerweile in die App integriert ist. Das ist einer der Punkte, wo wir, denke ich, Fortschritte viel zu schnell als normal hinnehmen. Denn ordentliche Transkription war ebenso wie Sprachsynthese lange Zeit ein riesen Problem. Die Sprachsynthese der ChatGPT-App ist gerade im Deutschen noch nicht perfekt. Und natürlich hängt der Genuss-Faktor des Gesprächs mit der KI sehr von der Internetverbindung ab. Aber grundsätzlich muss man denke ich schon festhalten: Dass man nun über die App nahezu in Echtzeit ein Gespräch mit einem großen Sprachmodell führen kann, stellt eine ganz neue Dynamik dar. Man muss eben nicht mehr am PC sitzen und nervig vor sich hin tippen und lesen. Studierende können sich auf ihr Bett legen, die Augen schließen und sich in ihrem Tempo und auf der Grundlage des für den Kurs speziell benötigten Materials dialogisch ein Thema erarbeiten. Man muss es vielleicht selbst ausprobiert haben, um ein Gefühl dafür zu bekommen, wie anders sich diese Art des Lernens anfühlt. Für mich war zumindest nach fünf Minuten klar, dass sich ein solcher Service unter Studierenden schon bald großer Beliebtheit erfreuen wird. Das einzige echte Problem (neben kleineren technischen Problemen) ist nur: Wer das von dem Dozenten/der Dozentin feinabgestimmte GPT nutzen möchte, muss selbst zahlender Kunde bei OpenAI sein. So ganz sind wir bei der Demokratisierung des Wissens also doch mal wieder nicht angekommen ...
Opmerkingen