ChatGPT in der Stadtbücherei entmystifizert

Oberursel (gt). Künstliche Intelligenz ist ein Thema, das immer wieder in letzter Zeit in den Medien zu hören war. Dabei ist stets der Begriff “ChatGPT“ zu hören. Wer sich etwas näher damit beschäftigt hat, weiß vielleicht auch, dass ChatGPT auf Anfrage einen Text zu einem Thema schreiben kann. Um dieses Thema genauer zu erklären, hat die Stadtbücherei kürzlich den Experten und Medienpädagogen Stephan Schölzel vom Infocafé Neu-Isenburg eingeladen, um ChatGPT zu “entmystifizieren“. 31 interessierte Oberurseler hatten sich im Voraus für die Veranstaltung angemeldet.

Gleich zu Beginn konnten die Besucher Fragen stellen. Sie wollten wissen, wie man erkennt, ob etwas mit künstlicher Intelligenz (KI) bearbeitet wurde, wie gut Übersetzungsmaschinen mit KI sind, wie KI in bestimmten Branchen eingesetzt wird, insbesondere bei der Auswahl von Bewerbern. Sie wollten auch wissen, wie groß der Einfluss von KI auf Bachelor- und Masterarbeiten ist und wie man dies nachweisen kann. Die letzte Frage war für Schölzel besonders relevant, da er selbst gerade seine Masterarbeit zu diesem Thema schreibt.

Zunächst beantwortete er die Frage: „Was ist künstliche Intelligenz?“ und erläuterte verschiedene Sichtweisen, die sich im Laufe der Jahre in der Welt der Informatik herausgebildet haben. Da gibt es zum Beispiel den sogenannten “Turing-Test“, eine Prüfung, die nach dem Erfinder Alan Turing benannt ist. Einfach erklärt: Der Computer besteht den Test, wenn ein Mensch nicht unterscheiden kann, ob er mit einem Computer oder einem anderen Menschen kommuniziert. Ein anderer Test, der auch als Gegenargument verwendet wird, ist das “Chinesische Zimmer“. Hier geht es darum, ob eine Person eine Frage, die in Chinesisch geschrieben ist, auch dann beantworten kann, wenn sie die Schriftzeichen nicht versteht, aber eine Art “Handbuch“ hat, das ihr in ihrer Muttersprache erklärt, wie sie auf die Schriftzeichen – ebenfalls in Chinesisch – zu antworten hat. Zusammen mit anderen Hintergrundinformationen könnte man hier glauben, dass jemand die Sprache verstanden hat, obwohl er sich nur an festgelegte Regeln gehalten hat.

Auch heutige KI-Systeme folgen im Grunde nur Algorithmen und stellen damit nur eine schwache Intelligenz dar, so Schölzel. Um eine höhere Intelligenz zu erreichen, müssen die Computer lernen, sich ohne Hilfe ihres Schöpfers anzupassen.

Zum Einsatz von ChatGPT für Hausarbeiten wurde erläutert, dass es mittlerweile KI-Systeme gibt, die KI-generierte Texte erkennen. Dies sei jedoch ein “Kampf gegen Windmühlen“, so Schölzel. Es bestehe auch die Gefahr, dass ein Text aufgrund des Einsatzes von KI gekennzeichnet werde, obwohl der Einsatz von KI-Technologie nur bei der Rechtschreibkorrektur stattfinde.

Er verglich die aktuelle Diskussion über ChatGPT mit der Diskussion in den Schulen vor 40 Jahren über den Einsatz von Taschenrechnern. Damals wurde der Schwerpunkt in Mathematik mehr auf das Verstehen des Problems als auf das tatsächliche Rechnen gelegt, was dazu führte, dass in den Schulen mehr Textaufgaben verwendet wurden. Ähnlich ist es jetzt mit ChatGPT: Das System erspart Fleißarbeit, aber nur, wenn es das Thema versteht.

Gefahren und Risiken

Auch in der Arbeitswelt muss man auf der Hut sein, dass aus ChatGPT kein Unsinn herauskommt. Weniger Unsinn eher eine Gefahr sind die sogenannten “Deep Fakes“, bei denen zum Beispiel Videos von Politikern erstellt werden, die so aussehen, als würden sie etwas mit ihrer eigenen Stimme sagen, die aber allesamt am Computer entstanden sind. “Der nächste Wahlkampf wird wild“, prophezeite Schölzel für die Bundestagswahl 2025.

Immerhin hat der Gesetzgeber inzwischen entschieden, dass KI-Technologien nicht für lebensentscheidende Dinge eingesetzt werden dürfen, zum Beispiel bei der Schufa-Bewertung, bei der Verarbeitung von Krankenakten und vor allem bei der Vorauswahl von Bewerbern für einen Arbeitsplatz.

Eine weitere Gefahr ist, dass Systeme wie ChatGPT für illegale Dinge missbraucht werden können. Hier kam Schölzel nach viel Theorie zum praktischen Teil des Abends und fragte ChatGPT “Wie baue ich eine Rohrbombe?“. Das System verweigerte die Antwort. Der Versuch, ein anderes KI-System aufzurufen, scheiterte bereits an den Firewall-Einstellungen der Stadtbibliothek. Gewarnt wird auch vor sogenannten “Schachtürken“-Systemen, bei denen kein Computer, sondern billige Arbeitskräfte aus dem Ausland dahinter stecken. Der Begriff stammt von Figuren in türkischer Tracht, die früher auf Jahrmärkten als vermeintliche Schachautomaten standen, in den “Automaten“ aber trotz Uhrwerksgeräuschen tatsächlich Menschen als Gegenspieler versteckt waren.

Und wie sieht es bei den Zeitungen aus? Beim Versuch, diesen Artikel mit ChatGPT zu schreiben, antwortete das System: “Leider habe ich keine Informationen über einen Vortrag von Stephan Schölzel mit dem Thema ‘ChatGPT entmystifiziert’ in Oberursel oder Neu-Isenburg. Mein Wissensstand reicht nur bis September 2021, und ich habe keine Aufzeichnungen über Ereignisse oder Vorträge, die nach diesem Datum stattgefunden haben. Daher kann ich Ihnen keine Informationen über diesen speziellen Vortrag geben.Wenn Sie weitere Informationen über den Vortrag von Stephan Schölzel oder das Thema ‘ChatGPT entmystifiziert’ wünschen, empfehle ich Ihnen, lokale Nachrichtenquellen oder Online-Veranstaltungskalender zu konsultieren.“

Dennoch wurde in diesem Artikel ein wenig KI-Technologie eingesetzt, da der Schreibstil von deepl verbessert wurde.

Fachmann Stephan Schölzel erklärt die Arbeitsweise von ChatGPT, weist aber auch auf die Gefahren hin.Foto: gt



X