Wenn der GenAI-Blues zuschlägt

GenAI-Begeisterungsstürme, anyone?
sophiecat | shutterstock.com



Auf den ersten Blick wirken ChatGPT, Gemini und Konsorten hilfreich und liefern plausible Antworten. Auf den zweiten Blick wird klar, dass den KI-Tools der Tiefgang fehlt. Und zwar nicht zu knapp. Nehmen wir das Beispiel Linux und Open Source Software. Je tiefer man in das Thema abtaucht, desto dürftiger und zweifelhafter werden die Informationen, die die generative KI dazu ausspuckt.



Wenn man sich wenigstens darauf verlassen könnte, dass die Antworten zwar medioker aber grundsätzlich richtig sind, wäre das schon ein Fortschritt. Die Realität sieht leider ganz anders aus – und nicht nur aus meiner persönlichen Perspektive. Wie „Business Insider“ vor einiger Zeit berichtete, empfinden viele GPT-4-Nutzer die Software zunehmend als „fauler“ und „dümmer“. Ein ähnliches Sentiment macht sich auch auf Reddit breit:




Comment byu/pigeon57434 from discussion inOpenAI




Inzwischen geht es (aus meiner Sicht) selbst mit dem bislang besten GenAI-Chatbot – Perplexity – bergab. Das Tool konnte mich zuvor insbesondere mit seinen Quellenangaben begeistern. Allerdings sind die seit einiger Zeit deutlich weniger zuverlässig.



Daran scheitern GenAI-Tools



Für diese Entwicklung sind aus meiner (Nicht-KI-Entwickler-)Sicht zwei Aspekte ursächlich.



1. Die Qualität der Inhalte



Die Inhalte, die dazu verwendet werden, Large Language Models (LLMs) zu trainieren, waren qualitativ noch nie besonders hervorragend. Das liegt auch daran, dass viele Inhalte von „Qualitäts“-Websites wie Twitter, Reddit oder auch 4Chan einfließen.



Welche Resultate das zutage fördern kann, hat zum Beispiel das „MIT Technology Review“ für einen Beitrag mit Blick auf Googles (in den USA bereits verfügbare) KI-Suchvorschläge herausgefunden. „Zu den Vorschlägen der KI gehörte, Pizza mit Klebstoff zu bestreichen oder einen kleinen Stein pro Tag zu essen. Außerdem dichtete das System Ex-US-Präsident Andrew Johnson mehrere Universitätsabschlüsse zwischen 1947 und 2012 an, obwohl er bereits 1875 verstorben ist“, schreibt MIT-Journalistin Rhiannon Williams.



Solche KI-Outputs kann man eventuell mit Humor nehmen – solange man nicht auf korrekte Antworten angewiesen ist. Das dürfte allerdings auf jeden KI-Nutzer zutreffen, der die Technologie geschäftlich respektive beruflich nutzen möchte. Und weil der Datenhunger der GenAI-Giganten immer weiter wächst, wird das Problem auch nicht kleiner. Im Gegenteil: Eine Studie des Research-Unternehmens Epoch AI kommt zum Ergebnis, dass schon im Jahr 2026 keine hochwertigen Daten für LLMs mehr zur Verfügung stehen werden.



2. Die selbstverstärkende Qualitätsminderung



Was uns zum zweiten Problem führt. KI-generierte Inhalte ersetzen manuell produzierte zusehends. Das führt nicht nur dazu, dass schlechte Informationen die guten verdrängen. In einem aktuellen Beitrag veranschaulichen Wissenschaftler, dass es zum „KI-Modellkollaps“ kommt, wenn KI-Modelle wahllos auf Daten trainiert werden, die ebenfalls KI-generiert sind.



Die Wahrscheinlichkeit, dass Unternehmen künftig davon absehen werden, GenAI-Tools einzusetzen, ist leider verschwindend gering. Die Qualität der Tools wird also sehr wahrscheinlich noch weiter absinken. Es könnte meiner Meinung nach sogar sein, dass wir in Sachen Qualität bereits den KI-Klimax erreicht haben. Ein beängstigender Gedanke.



Verstehen Sie mich bitte richtig: Es gibt diverse Einsatzgebiete für Generative-AI-Tools, die großen Nutzwert versprechen – beispielsweise im Healthcare-Bereich oder auch im Gaming-Sektor. Unternehmen sind allerdings vor allem darauf erpicht, Wissensarbeiter durch KI zu ersetzen. Das wird nicht funktionieren. Mit einer Ausnahme vielleicht: dem CEO. Die meisten Mitarbeiter würden sicher keinen Unterschied bemerken, das Unternehmen aber massiv Geld einsparen. (fm)



Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!