Künstliche Intelligenz macht Fehler
Von der Seele reden
Von der Seele reden – der Kommentar von Prof. Dr. Klaus-Dieter Müller, Politik- und Medienwissenschaftler und Vorstand der „Stiftung: Christliche Werte leben“.
Jeden Donnerstag um 20:45 Uhr im Radio und bereits vorab hier den ausführlichen Kommentar online hören. Mehr Infos zur Stiftung auf www.christlichewerteleben.de
KI sei für die Menschheit so wichtig wie die Nutzbarmachung der Elektrizität – das war das Versprechen. Doch daraus wird nichts, weil das Hauptproblem dieser Technologie ungelöst bleibt, lese ich in der Neuen Zürcher Zeitung.
Die Welle der künstlichen Intelligenz (KI) rollt schon lange – vor zwei Jahren wurde aus ihr ein Tsunami. Das deutsche Startup Open AI veröffentlichte eine Anwendung namens Chat-GPT. ChatGPT ist ein sprach- und textbasierter Chatbot. Der Chatbot kann zum Beispiel Texte schreiben, zusammenfassen und analysieren. ChatGPT kann Fragen beantworten und Vorschläge liefern. Ebenso kann die KI komplexe Probleme lösen und Nutzern in ihrem Alltag und bei ihrer Arbeit helfen. Deshalb eignet er sich vor allem für Dialog-Anwendungen, als Ideengeber, Inspirationsquelle oder Hilfe bei der Vorstrukturierung von Texten. Eine allwissende Maschine schien zum Greifen nahe. Die Erfindung sei so revolutionär wie die Nutzbarmachung der Elektrizität, hieß es. Aber der Hype ist gewichen. Das hat einen einzigen Grund. Jener Bereich der künstlichen Intelligenz, den man generative KI nennt, krankt immer noch an einem grundsätzlichen Problem: Er macht Fehler. Chat-GPT erfindet Fakten, KI-Hände haben manchmal sieben Finger, auf künstlich generierten Videos tauchen Details aus dem Nichts auf und verschwinden wieder. Generative KI ist wie ein Taschenrechner, der zwar in 99 Prozent der Fälle richtig liegt, aber in 1 Prozent falsch. Und man weiß nie, wann er richtig gerechnet hat.
Eine Zeitlang wirkte es so, als würde sich das Problem von selbst lösen. Von Version zu Version wurde Chat-GPT «klüger», erfand weniger Unsinn. Experten sprachen vom «scaling law», übersetzt «Gesetz der Skalierung». Es besagt: Je mehr Daten und Rechenleistung KI nutzen kann, desto besser wird sie, und zwar für immer. Dieses «Gesetz» war natürlich eine Hypothese. Und langsam stellt sich heraus, dass sie falsch ist. Das zeigt sich etwa daran, dass hinter den neuesten Leistungsfortschritten von Chat-GPT ein immer grösserer Aufwand steckt. Sogar Ilya Sutskever, führender KI-Forscher, Mitbegründer von Open AI und eifriger Warner, wenn es um überintelligente Maschinen geht, sagte kürzlich gegenüber der Nachrichtenagentur Reuters, dass die Jahre der Skalierung vorbei seien. Es brauche wieder neue Ideen.
Was für einen Wert hat so ein Gerät? Klar ist: Auf dem Mond wäre man damit nicht gelandet. Mit statistischen Häufigkeiten, und darauf baut generative KI auf, kann man sich der Wahrheit annähern, aber man wird sie nie ganz präzise beschreiben. Daran ändern auch noch mehr Daten und größere KI-Modelle nichts. Und wie man echte Denkfähigkeit programmieren kann, ist noch offen. magische, gottgleiche KI ist ausgeblieben. Philosophen streiten sich darüber, ob sie überhaupt möglich ist. Wir bleiben mit einem fehlerbehafteten Instrument zurück. Natürlich kann auch dieses wertvoll sein, denn ChaGPT ist viel weiter als andere.
Ich wünsche Ihnen eine erfolgreiche Woche, aber bitte bleiben Sie achtsam.