Zwei Jahre nach dem von ChatGPT losgetretenen KI-Boom können wir mit Fug und Recht sagen: KI ist gekommen, um zu bleiben. Und auch wenn die erste Euphorie mittlerweile abgeklungen ist, steht nach wie vor alle Welt auf KI. Sie wird einfach überall draufgeklatscht, ohne zu hinterfragen, ob es im jeweiligen Workflow überhaupt Sinn macht, generative KI zu inkludieren. Und zwar vor allem beim Thema Text. Aber macht das überhaupt Sinn?
Als ChatGPT 2022 offiziell gelauncht wurde, waren alle völlig von den Socken und die Welt konnte gar nicht genug vom KI-gesteuerte Chatbot bekommen. Und nachdem unzählige Firmen KI sofort in ihre Abläufe integriert haben, hat es gar nicht lange gedauert, bis die ersten Negativschlagzeilen über Chatbots, die machen, was sie wollen, auftauchten.
Und auch wenn viele große Unternehmen daraufhin vorsichtiger damit waren, KI zu implementieren – vor allem in Form von im Support eingesetzten Chatbots – nahmen KI-Tools in anderen Industrien gerade erst richtig Fahrt auf. Firmen und Einzelpersonen begannen immer öfter, KI zu verwenden und sogar qualifiziertes Fachpersonal mit ChatGPT und Co. zu ersetzen.
Abgesehen davon, dass die undurchdachte Nutzung von KI in allen Bereichen mit nicht zu unterschätzenden Umweltfolgen und ethischen Herausforderungen einhergeht, gibt es noch ein weiteres großes Problem mit generativer KI: Sie hat weder Wissen, noch Intelligenz – alles was sie tut basiert einzig und allein auf Statistiken und Wahrscheinlichkeit.
KI – nur ein LLM mit gutem Marketing
Was die Welt heutzutage als „KI“ bezeichnet, ist tatsächlich generative KI, im Englischen auch GenAI genannt. Und die ist in den allermeisten Fällen nicht mehr als ein Large Language Model (LLM) mit hübschem neuen Branding.
LLMs gibt’s tatsächlich schon eine ganze Weile, aber mit dem Rebranding Künstliche Intelligenz denken die Leute, dass es etwas völlig Neues ist – eine intelligente Maschine, die denken kann. Tatsächlich ist KI aber nichts weiter als ein Modell, das mit einer unglaublichen Menge an Text trainiert wurde, um Text „verstehen“ und generieren zu können.
Dahinter steckt jedoch kein wirkliches Verständnis. Die KI versteht nicht, was du ihr sagst und sie kann auch keine logischen Schlussfolgerungen ziehen. Stattdessen berechnet das LLM einfach, was im Text am wahrscheinlichsten als nächstes kommt. Und weil es so derartig viel Material hat, das es für diese Berechnungen heranziehen kann, sind die Ergebnisse relativ akkurat.
Dennoch dürfen wir nicht vergessen, dass alles, was die KI tut einzig und allein auf Wahrscheinlichkeiten basiert. Diese können sich zwar ändern, wenn du ihr bestimmte Anweisungen gibst oder eine Antwort überarbeiten lässt, aber am Ende des Tages und bleibt das ganze eine statistische Wahrscheinlichkeitsrechnung. Nicht mehr und nicht weniger.
Und genau hier kommt auch schon das nächste Problem ins Spiel: Je nachdem, wie du deine Frage stellst, kannst du ChatGPT, Claude und Co. dazu bringen, quasi jedes Argument zu unterstützen. Ich hab das mal kurz getestet und ChatGPT (die gratis Version) gefragt, warum wir aktuell eine Rezession haben, was mir der Chatbot netterweise erklärt hat – nur um mir direkt danach mehrere Gründe aufzuzählen, warum die Weltwirtschaft gerade so stark wächst, als ich danach gefragt habe.
Und auch wenn die bezahlten Versionen der KI-Tools vielleicht bessere Ergebnisse erzielen, sind wir mal ehrlich: SO VIEL besser sind sie auch nicht. Ähnlich wie bei dem Bild unten, das auf den ersten Blick okay aussieht, wirken auch die KI-generierten Texte zuerst in Ordnung – bis du sie dir genauer ansiehst.
Darum passen Wahrscheinlichkeiten und Details nicht zusammen
Weil die KI-generierten Inhalte auf den ersten Blick immer so super wirken, ist KI leider heillos überschätzt – die wenigsten Leute haben eine Ahnung davon, was KI wirklich kann (und ich meine gut kann, nicht nur „passt schon, schaut sich eh niemand so genau an“-kann). Das fällt vor allem bei KI-generierten Bilder wie diesem hier auf: Der Wald sieht okay aus und auch die Pferde wirken realitätsgetreu solange du nicht auf die Hinterbeine des vorderen Pferds schaust. Aber wie immer steckt der Teufel im Detail.
Beim genaueren Hinsehen tauchen nämlich ein paar Fragen auf … wie zum Beispiel, warum hat das erste Pferd zwei Schweife? Warum sitzt der erste Reiter rückwärts auf seinem Pferd (und dabei reden wir noch gar nicht davon, dass seine Füße trotzdem nach vorne zeigen …)? Warum hält die zweite Reiterin Zügel in der Hand, wenn auf dem Zaumzeug des Pferds gar keine befestigt sind? Und was ist überhaupt mit dem Gesicht der zweiten Reiterin los? Alptraum-Alarm!
Nicht gerade deine beste Arbeit, FlatAI … oder vielleicht doch? Immerhin wurde dieses Bild mit nichts als Wahrscheinlichkeiten erstellt.
Der KI-Bildgenerator versteht nicht, dass ein Pferd nur einen Schweif hat, oder dass Reiter:innen normalerweise mit dem Gesicht Richtung Pferdekopf auf dem Pferd sitzen. Alles, was die KI weiß (aka was die Zahlen ihr sagen) ist, dass bei fast allen Bildern von gerittenen Pferden, die es kennt, irgendwo bei irgendwelchen Beinen ein Schweif ist. Und irgendwo sitzt eine Person am Pferderücken – aber wie könnte die KI denn NICHT verwirrt sein angesichts der schieren Menge an Menschen, die ihr Pferd von der Kamera wegreiten?
Und auch wenn du dir jetzt vielleicht denkst, okay, das ist Bild aber Text ist Text, ist dieses Beispiel tatsächlich eine perfekte Illustration der Probleme, die auch KI-generierte Texte aufweisen. Sehen wir uns das mal genauer an.
Probleme mit KI-generierten Texten
Im Zusammenhang mit Text wirkt KI erstmal wirklich beeindruckend. Du kannst dich mit ihr unterhalten, den Stil eines Texts überarbeiten lassen, Codes programmieren lassen und die KI anweisen, dass sie dir einen Blogpost schreibt.
Und in nur ein paar Sekunden ist die Aufgabe erledigt.
Und wenn du den von ChatGPT, Claude, Gemini und Co. generierten Text querliest, sieht er erstmal richtig gut aus. Da sind viele Wörter, sie sind alle verständlich und in der Regel gibt’s kaum Grammatik-Fehler. Und auch wenn du dir das ganze durchliest, wirkt alles gut. Kurzzeitig. Denn sobald du wirklich damit beginnst, dir den Text genauer anzusehen, fallen unzählige Fehler und Ungereimtheiten auf. Darunter:
- Fehlende Logik: Wie auch im Bild oben wirft die KI einfach einen Haufen Dinge zusammen, die schonmal über dein Thema gesagt wurden. Das führt zu sich widersprechenden Aussagen und endlosen Wiederholungen von Dingen, die bereits gesagt wurden (ja, auch innerhalb eines Texts).
- Falsche „Fakten“: KI differenziert nicht zwischen den Aussagen zum Thema, sodass in den KI-generierten Texten gerne am Anfang X postuliert wird, nur um dem dann mit Y im nächsten Absatz zu widersprechen.
- Fehlende Tiefe: Mit den meisten KI-generierten Texten kannst du wunderbar Bullshit-Bingo spielen – da gibt’s jede Menge leere Phrasen und Buzzwords, aber wenn du klare Aussagen suchst, bist du hier leider falsch. Ähnlich wie in der Politik.
- Fehlende Variation: Sei es bei Wortwahl, Satzstruktur, dem Aufbau von Absätzen oder sogar Stil – alles, was KI generiert, klingt irgendwie gleich. Geht ja nicht anders, nachdem sie immer die wahrscheinlichsten Wörter wählt. Und ja, das gilt auch wenn du einen bestimmten Tone of Voice verlangst: Die Variation innerhalb dieser Stimme ist eingeschränkt.
- Starker Bias bei den Inhalten: In der Vergangenheit waren die Welt und ihre Möglichkeiten für das Individuum viel stärker eingeschränkt als heute: Krankenpflegerinnen waren immer Frauen (steckte ja schon im Wort „Krankenschwester“), Ärzte sind immer männlich und Familien bestehen immer aus einem Mann, einer Frau und zwei Kindern. Und auch wenn das heute so gar nicht mehr der Realität entspricht sind diese Ideen oft noch tief in den Köpfen verankert – und somit auch in ganz, ganz vielen Inhalten. Und aus diesem Grund wird die KI noch sehr, sehr lange diese veralteten Konstrukte als das wahrscheinlichste Szenario annehmen und nur dann etwas Anderes zeigen, wenn sie explizit danach gefragt wird.
Du siehst, es ist nicht immer die beste Idee, KI einfach überall draufzuklatschen – und zwar insbesondere beim Thema Text. Nicht alles, was KI ist, ist auch Gold. Es gibt viele Dinge, die KI für uns tun kann und für die sie richtig gut geeignet ist. Aber es gibt auch richtig viele Dinge, für die sie absolut nicht geeignet ist.
Wenn dich das Thema interessiert, sieh dir doch meine zwei weiteren Beiträge zu KI in der Sprachindustrie an: einmal geht’s um KI und Übersetzung und einmal um KI und Copywriting. 😉