Hallo Ihr Lieben,
nach nunmehr fast zehn Monaten hatte ich am 21.09.2023 endlich wieder die ehrenvolle Gelegenheit, einen Vortrag im Rotary Club Frankfurt/M.-Friedensbrücke halten zu dürfen. Der Themenvorschlag kam diesmal ausgesprochen proaktiv von mir selbst, denn ich wollte diese Gelegenheit nutzen, mich in ein Thema einzuarbeiten, das derzeit in aller Munde ist und mich schon aufgrund meiner Historie als Informatiker mit vorübergehender akademischer Karriere im Fachgebiet „Intellektik” des Fachbereichs Informatik an der TU Darmstadt brennend interessiert: ChatGPT!
Tatsächlich waren künstliche neuronale Netze, welche die technologische Basis für die großen Sprachmodelle nach Bauart von ChatGPT bilden, schon zu meiner akademischen Zeit (also in den 1990er Jahren) ein Thema — wenngleich natürlich nur in eben jener akademischen Welt, denn seinerzeit gab es weder genug Rechenleistung noch hinreichend große annotierte Datenbestände, um Netze mit angemessener Leistungsfähigkeit zu bauen und sie dann auch noch mit einer ausreichenden Menge an Trainingsdaten zu versorgen. Immerhin hat ein Institutskollege von mir schon damals über ein neuronales Netz promoviert, das bestimmte Merkmale von EEG-Ableitungen daraufhin analysieren konnte, ob es sich um Hinweise auf Epilepsie oder lediglich um sogenannte Bulbus-Artefakte handelt — also Kurvenverläufe, die bei Augenbewegungen des Patienten während der Messung entstehen.
Aber es mussten noch weitere rund fünfzehn Jahre vergehen, bis genügend Rechenleistung (insbesondere in Form von Grafikkarten — näheres dazu in der unten referenzierten Vortragsausarbeitung) und genügend Trainingsmaterial (insbesondere durch Suchmaschinen im World-Wide-Web und soziale Netzwerke) vorhanden waren, um praxisrelevante Systeme bauen zu können, die auf neuronalen Netzen beruhen. So kam es schließlich in jüngster Zeit zur Entwicklung großer Sprachmodelle, unter denen sich die sogenannten „Transformer” als besonderes leistungsfähig herauskristallisierten. Ein Beispiel für diese Transformer ist nun eben gerade ChatGPT (daher das „T” in seinem Namen), so dass ich mit Hilfe meiner Vortragsvorbereitung den Versuch unternehmen wollte zu begreifen, wie so ein System im Grundsatz aufgebaut ist und wie es funktioniert.
Was daraus geworden ist findet Ihr in Form einer 14-seitigen Ausarbeitung unter folgendem Link:
http://www.kornfamily.de/daniel/Rotary/ChatGPT.pdf
Zum eigentlichen Vortrag hatte ich natürlich — wie immer — eine Reihe animierter Folien vorbereitet, die Ihr nachstehend als Video betrachten könnt:
Ich hoffe, Ihr könnt damit etwas anfangen. Mir hat es jedenfalls eine Menge an Einsichten über die Funktionsprinzipien dieser sogenannten generativen KI-Systeme vermittelt. Dazu gehören insbesondere die Stärken aber eben auch die bauartbedingten Grenzen solcher Systeme, auf deren Ausgaben man sich nämlich (zumindest nach heutigem Stand der Dinge) keineswegs unhinterfragt verlassen kann.
Das Feedback zum Vortrag war diesmal eindeutig von Anerkennung geprägt, was mir dahingehend Zuversicht verleiht, dass ich so langsam dann doch auf dem richtigen Weg zu einer für Laien verständlichen IT-Didaktik zu sein scheine. Wenn man dagegen an meine Blogserie zur Mandelbrotmenge denkt, scheint es hier also doch noch eine Lernkurve zu geben. Bin daher schon mal sehr gespannt, was Ihr davon haltet. Kommentare und Feedback sind wie immer stets sehr willkommen!
Alles Liebe
Daniel