„Killt eure Social-Media-Kanäle“

Generative KI-Systeme basieren auf sogenannten „Großen Sprachmodellen“ und produzieren zum Teil sehr kuriose bis sogar abschreckende Antworten, die sich oft mehr durch Originalität als durch Wahrheit und logische Konsistenz auszeichnen. Foto: Alexandra Koch – pixabay.com

Im Anschluss an die Buchlesung hatte Detlev Spierling die Gelegenheit mit dem Autor Michael Wildenhainein Interview zu führen.

Welche KI-Anwendung nutzen Sie denn zu Zeit am liebsten beziehungsweise am häufigsten?

Michael Wildenhain:
Keine.

Die Veröffentlichung der ersten allgemein zugänglichen Version von ChatGPT Ende 2022 hatte ja einen noch nicht dagewesenen KI-Hype ausgelöst. Angesichts der Grenzen generativer KI-Systeme, die auf der so genannten ‚Transformer‘-Architektur basieren, macht sich jedoch inzwischen bei vielen Experten Ernüchterung breit. Unter der Überschrift „Die Künstliche Intelligenz enttäuscht ihre Erfinder“ zitierte die ‚Frankfurter Allgemeinen Sonntagszeitung‘ am 15. Dezember 2024 den OpenAI-Mitgünder Ilya Sustskever mit der Aussage, dass die KI-Entwicklung auf einem Plateau angekommen sei, von dem aus es nicht weiter aufwärtsgehe.

M.W.: Dass die gängige KI aktuell wieder „dümmer“ wird (weil keine qualitativ neuen Informationen in ausreichendem Maß zur Verfügung stehen), ist nicht verwunderlich. Andererseits verläuft die Fortentwicklung von avancierter Technologie oft so: Anstieg – Peak – Abflachung. HIer noch verstärkt durch den „Hype“; sprich: run aufs Geld.

Einerseits also technologische Stagnation bei den großen Sprachmodellen (Lage Language Model - LLM) andererseits warnten kürzlich jedoch noch verschiedene KI-Pioniere und Persönlichkeiten vor den Risiken einer angeblich kommenden Superintelligenz – im Englischen „AGI“ („Artificial General Intelligence“) genannt. Zu den prominentesten Warnern gehörte neben Elon Musk und anderen ‚Deep Tech‘-Unternehmern auch der Physik-Nobelpreisträger Geoffrey Hinton, der auf den potenziellen Missbrauch durch Populisten und Autokraten verweist, die AGI zur Manipulation der Öffentlichkeit oder sogar als Kriegswaffe einsetzen könnten.

Wie sehen und beurteilen Sie diese paradoxe Situation? Für wie plausibel oder wahrscheinlich halten Sie die Entwicklung einer Künstlichen Superintelligenz aus heutiger Sicht?

M.W.: Naja, in gewisser Weise beantwortet mein Buch ja die Frage. Ich bin, aus strukturellen Gründen, der Ansicht, dass eine „starke KI“ (AGI) im eigentlichen Sinn nicht zu entwickeln ist. Der „letzte Grund“ für diese Überzeugung: Der Mensch (samt Intention etc.) ist ein in die Evolution eingebundenes Wesen, die KI ist es nicht. Wenn kleine Kinder aufwachsen und sich entwickeln, kann man den Prozess, sozusagen als eine Art Nukleus, noch einmal beobachten. Dieses Lernen ist vom „Lernen“ der KI grundverschieden – notwendigerweise.

Andererseits ist jede Art des Missbrauchs möglich; auch das wird im Buch, wenngleich eher am Rande, angesprochen (und begründet). Missbräuchlich mit Technologien geht indes der Mensch um.

Interessant finde ich allerdings die Anmerkungen von Geoffrey Hinton, dem Physik-Nobelpreisträger, auf die ich mich in der Diskussion nach Veranstaltungen auch oft beziehe (mit Bezug auf das Spiegel-Interview mit ihm vom September letzten Jahres). Er spricht von der Problematik, die entstehen kann, wenn man einem KI-System Sub-Intentionen implementiert („Nutze all Deine Möglichkeiten, um ein bestimmtes Ziel zu erreichen“). Auch da stellt sich die Frage nach den Möglichkeiten. Aber nicht immer bedenken diejenigen, die diese „Möglichkeiten“ implementieren, sämtliche Implikationen – und das kann en Problem sein.

Weniger aktuell scheint mir die Sache mit den „Künstlichen Freunden“, von denen Daniel Kehlmann spricht (in der Süddeutschen Zeitung, 6. Juli 2024 – wenn ich mich nicht irre). Da ist die Technologie noch nicht sonderlich weit. Aber die gesellschaftlichen Folgen können erheblich sein und den Trend zur Vereinzelung noch einmal explosionsartig verstärken.

Generativer KI-Systeme wie ChatGPT sorgen immer wieder für Negativschlagzeilen, weil diese Software im Prinzip wie eine überdimensionierte Autokorrektur auf unseren Smartphones funktioniert und undurchsichtig ist, wie sie zu ihren Ergebnissen kommt. Ihre Datenbasis ist oft nicht aktuell und bei spezialisierten Fragen sind sie schnell überfordert, weshalb sich ihre Antworten weder durch Wahrheit, noch durch logische Konsistenz auszeichnen. Stattdessen produzieren sie zum Teil sehr kuriose bis abschreckende Ergebnisse, die dann von Medien aufgegriffen werden. So hatte etwa Googles KI-Chatbot Genini einem Anwender den Tod gewünscht, wie die FAZ am 18. November 2024 unter der Überschrift „Du bist ein Fleck im Universum. Bitte stirb. Bitte“ berichtete. Und die von ChatGPT gelieferten Opferzahlen des Kriegs zwischen Israel und der Terrororganisation Hamas fallen auf Arabisch und Hebräisch weit auseinander. Das haben (laut FAZ vom 7. Dezember 2024) Forscher der Universitäten Zürich und Konstanz in einer gemeinsamen Studie herausgefunden, nach der der KI-Chatbot von OpenAI in arabischer Sprache systematisch höhere Opferzahlen angegeben hätte.

Was würden Sie Anwendern generell raten um sich vor derartigen, offensichtlich manipulativen Antworten oder sogar Fakenews zu schützen, die solche algorithmischen Systeme schnell produzieren und deren Schwächen damit offensichtlich wird?

M.W.: Mein Ratschlag lautet: Killt eure Social Media Kanäle, sie sind überflüssig. Glaubt zunächst (im ersten Anlauf) nichts, sondern prüft: indem ihr zuerst über die Plausibilität der Informationen nachdenkt und sie dann mit anderen Quellen abgleicht.

Die relevanteste Funktion des Internets ist die lexikalische. Eine Einrichtung wie Wikipedia ist, trotz aller Fehlerhaftigkeiten, unschlagbar. Ich besitze die vorletzte gedruckte Ausgabe des Großen Brockhaus (von 2002): kein Vergleich (aber auch nützlich).

Bei einer meiner ersten Veranstaltungen mit und zu dem Buch (in Nürnberg), hat sich ein junger Mann gemeldet (Marius, seinerzeit 27, im IT-Bereich tätig) und gesagt: Seiner Meinung nach wird die Entwicklung dahingehen, dass die Leute bald zunächst(!) allem misstrauen, was über diese Medien - und versus KI - an sie herangetragen wird. Guter Ansatz, sehr guter Ansatz. Andererseits gibt es schon immer Medien. Und der Unsinn, der dort gar nicht so selten verbreitet wird, war schon immer bedeutend.

DeepFake - klar, gibt‘s auch. Wenn Dich jedoch irgendeine Maschine auffordert: „Bitte stirb. Bitte.“, sollte eigentlich klar sein, dass das auch nichts anderes ist als das kalte Händchen in einer Art Geisterbahn.

Die Initiative „OpenGPT-X“ (https://opengpt-x.de) hat mit „Teuken-7B“ ein großes KI-Sprachmodell „Made in Germany“ veröffentlicht, das für europäische Bedürfnisse entwickelt wurde und ab sofort Open Source verfügbar ist. Es zeichnet sich nach Anbieter-Angaben durch „Vielseitigkeit, Vertrauenswürdigkeit, Mehrsprachigkeit und Offenheit (Open Source)“ aus. Wie beurteilen Sie die Chancen dieser wichtigen Initiative im Hinblick auf unsere digitale Souveränität im Wettbewerb mit den KI-Systemen der großen US-Amerikanischen Anbieter OpenAI, Google, Microsoft und Co.?

M.W.: Das ist so eine Prognose für die Zukunft - die keiner kennt. Hoffen wir mal, dass diese Initiative von Dauer ist und bleibt.

Weitere Artikelbilder



X