Website-Icon DK's Blog

ChatGPT & Co. — Was es mit dem neu­en KI-Hype auf sich hat

Hal­lo Ihr Lieben,

nach nun­mehr fast zehn Mona­ten hat­te ich am 21.09.2023 end­lich wie­der die ehren­vol­le Gele­gen­heit, einen Vor­trag im Rota­ry Club Frankfurt/M.-Friedensbrücke hal­ten zu dür­fen. Der The­men­vor­schlag kam dies­mal aus­ge­spro­chen pro­ak­tiv von mir selbst, denn ich woll­te die­se Gele­gen­heit nut­zen, mich in ein The­ma ein­zu­ar­bei­ten, das der­zeit in aller Mun­de ist und mich schon auf­grund mei­ner His­to­rie als Infor­ma­ti­ker mit vor­über­ge­hen­der aka­de­mi­scher Kar­rie­re im Fach­ge­biet „Intel­lek­tik” des Fach­be­reichs Infor­ma­tik an der TU Darm­stadt bren­nend inter­es­siert: ChatGPT!

Tat­säch­lich waren künst­li­che neu­ro­na­le Net­ze, wel­che die tech­no­lo­gi­sche Basis für die gro­ßen Sprach­mo­del­le nach Bau­art von ChatGPT bil­den, schon zu mei­ner aka­de­mi­schen Zeit (also in den 1990er Jah­ren) ein The­ma — wenn­gleich natür­lich nur in eben jener aka­de­mi­schen Welt, denn sei­ner­zeit gab es weder genug Rechen­leis­tung noch hin­rei­chend gro­ße anno­tier­te Daten­be­stän­de, um Net­ze mit ange­mes­se­ner Leis­tungs­fä­hig­keit zu bau­en und sie dann auch noch mit einer aus­rei­chen­den Men­ge an Trai­nings­da­ten zu ver­sor­gen. Immer­hin hat ein Insti­tuts­kol­le­ge von mir schon damals über ein neu­ro­na­les Netz pro­mo­viert, das bestimm­te Merk­ma­le von EEG-Ablei­tun­gen dar­auf­hin ana­ly­sie­ren konn­te, ob es sich um Hin­wei­se auf Epi­lep­sie oder ledig­lich um soge­nann­te Bul­bus-Arte­fak­te han­delt — also Kur­ven­ver­läu­fe, die bei Augen­be­we­gun­gen des Pati­en­ten wäh­rend der Mes­sung entstehen. 

Aber es muss­ten noch wei­te­re rund fünf­zehn Jah­re ver­ge­hen, bis genü­gend Rechen­leis­tung (ins­be­son­de­re in Form von Gra­fik­kar­ten — nähe­res dazu in der unten refe­ren­zier­ten Vor­trags­aus­ar­bei­tung) und genü­gend Trai­nings­ma­te­ri­al (ins­be­son­de­re durch Such­ma­schi­nen im World-Wide-Web und sozia­le Netz­wer­ke) vor­han­den waren, um pra­xis­re­le­van­te Sys­te­me bau­en zu kön­nen, die auf neu­ro­na­len Net­zen beru­hen. So kam es schließ­lich in jüngs­ter Zeit zur Ent­wick­lung gro­ßer Sprach­mo­del­le, unter denen sich die soge­nann­ten „Trans­for­mer” als beson­de­res leis­tungs­fä­hig her­aus­kris­tal­li­sier­ten. Ein Bei­spiel für die­se Trans­for­mer ist nun eben gera­de ChatGPT (daher das „T” in sei­nem Namen), so dass ich mit Hil­fe mei­ner Vor­trags­vor­be­rei­tung den Ver­such unter­neh­men woll­te zu begrei­fen, wie so ein Sys­tem im Grund­satz auf­ge­baut ist und wie es funktioniert. 

Was dar­aus gewor­den ist fin­det Ihr in Form einer 14-sei­ti­gen Aus­ar­bei­tung unter fol­gen­dem Link:

http://www.kornfamily.de/daniel/Rotary/ChatGPT.pdf

Zum eigent­li­chen Vor­trag hat­te ich natür­lich — wie immer — eine Rei­he ani­mier­ter Foli­en vor­be­rei­tet, die Ihr nach­ste­hend als Video betrach­ten könnt:

https://www.kornfamily.de/daniel/Rotary/ChatGPT.mp4

Ich hof­fe, Ihr könnt damit etwas anfan­gen. Mir hat es jeden­falls eine Men­ge an Ein­sich­ten über die Funk­ti­ons­prin­zi­pi­en die­ser soge­nann­ten gene­ra­ti­ven KI-Sys­te­me ver­mit­telt. Dazu gehö­ren ins­be­son­de­re die Stär­ken aber eben auch die bau­art­be­ding­ten Gren­zen sol­cher Sys­te­me, auf deren Aus­ga­ben man sich näm­lich (zumin­dest nach heu­ti­gem Stand der Din­ge) kei­nes­wegs unhin­ter­fragt ver­las­sen kann.

Das Feed­back zum Vor­trag war dies­mal ein­deu­tig von Aner­ken­nung geprägt, was mir dahin­ge­hend Zuver­sicht ver­leiht, dass ich so lang­sam dann doch auf dem rich­ti­gen Weg zu einer für Lai­en ver­ständ­li­chen IT-Didak­tik zu sein schei­ne. Wenn man dage­gen an mei­ne Blog­se­rie zur Man­del­brot­men­ge denkt, scheint es hier also doch noch eine Lern­kur­ve zu geben. Bin daher schon mal sehr gespannt, was Ihr davon hal­tet. Kom­men­ta­re und Feed­back sind wie immer stets sehr willkommen!

Alles Lie­be

Dani­el

Die mobile Version verlassen