Der Einsatz von Künstlicher Intelligenz in der Textgenerierung, vor allem durch Programme wie ChatGPT, sorgt für zahlreiche Diskussionen und Kritik. Während die Technologie beeindruckende Texte produzieren kann, stellt sich die Frage, wie sinnvoll das ist.
Im Unterschied zu klassischen Algorithmen, die feste Regeln befolgen, arbeitet ein KI-System wie ChatGPT statistisch: Es erzeugt Antworten basierend auf Wahrscheinlichkeiten und Mustern in riesigen Datenmengen, nicht auf festgelegten Abläufen. Während eine traditionelle Software etwa Lagerbestände verwaltet, erkennt KI wie ChatGPT Muster, um Vorhersagen oder neue Inhalte zu generieren. Generative KI wird dabei durch Eingaben („Prompts“) angestoßen, liefert aber oft variable Ergebnisse, da sie nicht einem festen Ablauf folgt – genau erklären, wie ein Ergebnis entsteht, kann sie daher nicht. Jeder Prompt liefert ein anderes Ergebnis, manchmal auch mit widersprüchlichem Inhalt.
Inhalt
KI ohne Wahrheitsanspruch
Die grundlegende Funktionsweise von ChatGPT und vergleichbaren Sprachmodellen basiert darauf, Texte zu erzeugen, die statistisch den menschlichen Dialog nachahmen. Doch diese Programme haben kein echtes Verständnis von Wahrheit oder Bedeutung. Stattdessen produzieren sie Antworten auf Basis von Wahrscheinlichkeiten, nicht aufgrund einer Überprüfung auf Fakten. Die Forscher Michael Townsen Hicks und seine Kollegen von der Universität Glasgow beschreiben den Output sogar als „Bullshit“: ChatGPT sei „indifferent gegenüber der Wahrheit seiner Aussagen.“ KI-Systeme könnten daher unabsichtlich falsche Informationen verbreiten, weil sie sich lediglich daran orientieren, was sprachlich plausibel erscheint, nicht daran, was faktisch richtig ist.
„Halluzinationen“ oder strategischer Einsatz?
Zwar sind KI-Fehler oft als „Halluzinationen“ beschrieben worden – ein Begriff, der suggeriert, dass die KI schlicht einen „Wahrnehmungsfehler“ mache. Doch die Wissenschaftler kritisieren diese Wortwahl als irreführend. Denn die KI „halluziniert“ nicht wie ein Mensch; sie erzeugt schlicht wahrscheinlich klingende Aussagen ohne Bezug zur Wahrheit und ohne jedes Interesse daran. Wir können KI nicht verantwortlich dafür machen, wenn sie Lügen und Halbwahrheiten verbreitet und wir erkennen das in vielen Fällen auch gar nicht.
Das sagen meine Kunden
“Durch die professionelle Beratung und Unterstützung von Herrn Raaf konnte die Sichtbarkeit unserer Website um ein Vielfaches gesteigert werden. Die im Vorfeld der Zusammenarbeit angestrebten Ziele wurden durchweg erreicht, sogar übertroffen.” (Kunde: Bundesbehörde)
Der Informatiker und KI-Kritiker Jürgen Geuter mahnt zur Vorsicht: „Diese Maschinen sind keine denkenden Wesen.“ Stattdessen sind sie komplexe Werkzeuge, die auf menschlichen Eingaben basieren und nur so gut sind wie die Daten, die sie füttern. Problematisch wird dies insbesondere, wenn solche KI-Anwendungen als glaubwürdige Quellen herangezogen werden, zum Beispiel in journalistischen oder wissenschaftlichen Kontexten.
Der „Selbstversorgungs-Kreislauf“ und seine Folgen
Ein weiteres Problem entsteht durch die immer größere Menge KI-generierter Inhalte, die wiederum zur Fütterung neuer KI-Modelle genutzt werden. Geuter bezeichnet diesen Prozess als „inzestuös“. Diese „Selbstversorgung“ der KI mit maschinengenerierten Daten mindert langfristig die Qualität, weil immer weniger echte menschliche Perspektiven einfließen. Das könnte dazu führen, dass die „Informationsdichte“ in den Texten sinkt, was wiederum die Fähigkeit der KI, nützliche Informationen zu generieren, einschränkt.
Suche ich beispielsweise auf Perplexity nach meinem Namen, sehe ich einen sehr positiven Beitrag über meine eigenen Leistungen. Schaue ich auf die Quellen, stelle ich fest, dass Perplexity alle Informationen nur von meinen eigenen Plattformen, also Website, Linkedin und Gastartikeln zusammen gestellt hat. Kritische Distanz? Fehlanzeige. Auch wenn in diesem Fall jedes Wort selbstverständlich wahr ist (*Ironie off*), stellt sich also die grundsätzliche Frage, ob man sich wirklich auf die Beurteilung eine generative KI verlassen sollte, die nicht über die Fähigkeit verfügt, Sachverhalte richtig einzuschätzen, weil ihr konkrete Erfahrungswerte und grundlegend menschliche Eigenschaften fehlen.
Nebenwirkungen und Risiken von generativer KI auf unsere Gesellschaft
Auch die Auswirkungen auf den Arbeitsmarkt sind weitreichend. KI wird oft als Lösung für Fachkräftemangel propagiert, etwa im Kundenservice oder Journalismus. Geuter sieht hier eine „toxische Dynamik“ am Werk: Unternehmen könnten durch den Einsatz von KI weniger qualifizierte Arbeitskräfte beschäftigen und diese dann unter Druck setzen, dass die KI ihre Arbeit ersetzen könnte. Dabei geht es häufig nicht um Qualitätssteigerung, sondern um Kosteneinsparung – „die Qualität des Outputs ist dann oft zweitrangig, Hauptsache, er ist billig.“
Neben diesen Herausforderungen gibt es weitere ungelöste Probleme im Umgang mit KI, die bedeutende Auswirkungen haben können.
Ein wichtiger Punkt ist die Frage der Verantwortung: Wer haftet eigentlich, wenn KI-Systeme wie ChatGPT falsche oder irreführende Informationen liefern? Besonders in sensiblen Bereichen wie Medizin oder Recht kann dies schwerwiegende Folgen haben. Auch urheberrechtliche Fragen sind bislang völlig ungeklärt. KI verarbeitet aus dem Netz zusammengesammelte Informationen bisher ohne das Einverständnis der Urheber.
Umgekehrt sind KI-generierte Inhalte nicht urheberrechtlich schützbar, können also kostenlos und ohne Einschränkung immer weiter verwertet werden. Das könnte ein zentrales Recht, das kreativen Menschen einen Lebensunterhalt sichert, dauerhaft gefährden.
Die Proteste gegen KI werden lauter
Es gibt bereits massiven Widerstand aus der Kreativbranche gegenüber der Nutzung von KI. So hatte Schauspielerin Scarlett Johannson OpenAI verbieten lassen, ihre Stimme für ChatGPT zu verwenden. Im visionären Film “Her” spielte sie bereits 2013 eine KI-Stimme, in die sich der Hauptdarsteller Joaquin Phoenix verliebt. Diesen Science-Fiction-Filmstoff wollte OpenAI nun Realität werden lassen und ihre Stimme für Gespräche mit ChatGPT verwenden, allerdings ohne die Schauspielerin um Erlaubnis zu fragen.
Über 30.000 weitere Schauspieler und Musiker hatten jüngst einen offenen Brief veröffentlicht, mit der Forderung, KI zu untersagen, ihre Werke als Trainingsdaten verwenden zu dürfen, darunter ABBA, Radiohead, Julianne Moore, The Cure, Hot Chip und viele andere. Bereits jetzt wäre es problemlos möglich, unendlich viele KI-generierte ABBA-Songs zu generieren durch das immer neue Zusammensetzen des vorhandenen Repertoires. Für Kreative: eine Horrorvorstellung. Für Dieter Bohlen: ein Traum. Der Widerstand gegen KI wächst aber auch in der Bevölkerung und die Ängste vieler Menschen durch die rasante technologische Entwicklung bald keine Arbeit mehr zu haben sind nicht unbegründet. Und diese Angst vergiftet das politische Klima weiter.
EU Regulierung tritt 2025 in Kraft
Ab August 2025 müssen die Regeln des AI Act der EU für allgemeine KI-Modelle, wie ChatGPT, erfüllt sein. Dazu zählen unter anderem Transparenzanforderungen, durch die Nutzer erkennen sollen, wann sie mit einem KI-System interagieren und wie dieses trainiert wurde. Auch sogenannte Hochrisiko-KI-Modell zur Erfassung sensibler Daten wie Biometrie, Scoring oder Gesundheit unterliegen strengen Auflagen, die ab 2026 verpflichtend werden. Es ist also noch gar nicht gesagt, dass die aktuellen Systeme zukunftsfähig sind, weil sie ggf. gegen rechtliche Vorgaben verstoßen.
Auch die Gefahr von Verzerrungen und Diskriminierung ist groß. KI-Systeme übernehmen oft Stereotype aus ihren Trainingsdaten, was zu unfairen oder sogar diskriminierenden Ergebnissen führen kann. Man stelle sich nur vor, welche Antworten vergleichbare KI-Tools in Ländern mit staatlicher Zensur geben werden. KI lässt sich problemlos als Instrument zur Gehirnwäsche umfunktionieren. “Big Brother” aus dem Roman “1994” ist in manchen Ländern keine Dystopie mehr, es ist längst Realität. KI kann sehr realistisch wirkende Texte, Bilder und Videos generieren und Meinungen nach Wunsch manipulieren. Und das ist eine große Gefahr, sofern man gleichzeitig die Arbeit von unabhängigen Medien einschränkt.
KI macht faul und dumm
Aber es geht auch eine Nummer kleiner: wenn immer mehr Aufgaben an KI übergeben werden, fehlt Menschen die Möglichkeit, ihre Fähigkeiten weiterzuentwickeln, was irgendwann zum Problem wird. Wenn Routineaufgaben automatisch erledigt werden, fehlt oft die Motivation zur Eigeninitiative und Weiterentwicklung. Dies könnte langfristig die Produktivität und Innovationskraft verringern. Mit anderen Worten: KI macht uns faul und dumm. Wir sind irgendwann nicht mehr in der Lage einen geraden Satz zu formulieren, wenn wir die Kulturtechnik des Schreibens aufgeben. Wir sehen, was mit unserer Handschrift passiert ist, seit wir nicht mehr von Hand schreiben. Dasselbe wird passieren, wenn wir gar nichts mehr selbst schreiben.
Ethisch und sozial problematisch wird KI, wenn wichtige Entscheidungen im Gesundheitswesen oder der Justiz zunehmend auf automatisierten Modellen basieren und nicht auf individuellen Bewertungen. Dies könnte das Vertrauen in Institutionen untergraben.
All diese Faktoren zeigen, dass der verantwortungsvolle Umgang mit KI regelmäßig überprüft werden muss, damit sie der Gesellschaft nicht schadet. Regulierung bedeutet in diesem Zusammenhang nichts Negatives: Man muss KI regulieren, weil es zu viele Gefahren gibt und zu große finanzielle Interessen von Menschen mit sehr viel Geld und Macht. Nur solche können noch neue KI-Modelle entwickeln und vermarkten.
KI-Technologie ist eine echte Bedrohung für den gesellschaftlichen Zusammenhalt, sie verschärft die bereits vorhandene Spaltung der Gesellschaft in reich und arm noch einmal massiv.
KI und die Zukunft: Zwischen Potential und Realität
Die aktuelle Debatte um KI zeigt, dass es auf Dauer nicht reicht, sich nur von den beeindruckenden neuen technischen Möglichkeiten und der oberflächliche Einfachheit von KI-Tools blenden zu lassen, zumal viele der Jubelmeldungen nichts anderes als PR der KI-Unternehmen sind, die mit extrem viel Geld ihre Produkte in den Markt drücken wollen, bevor ein anderes Unternehmen ihnen diesen streitig macht. Wir müssen uns aber auch mit den Folgen für die Menschen auseinandersetzen. Auch wenn die Sprachmodelle beeindruckende Fortschritte gemacht haben, bleibt die Frage, was wir eigentlich damit machen wollen und wem sie langfristig nutzen – und wem nicht.
Mit KI können durchaus hilfreiche Werkzeuge für Routineaufgaben entstehen, aber die Grenzen und möglichen negativen Auswirkungen auf unsere Gesellschaft dürfen bei aller Begeisterung für den technologischen Fortschritt nicht übersehen werden. KI macht unsere Welt nicht etwa einfacher, sondern im Gegenteil, wesentlich komplizierter als sie sowieso schon ist.
Kontakt
Mein Name ist Udo Raaf und ich berate mit meiner langjährigen Erfahrung als Publisher seit 15 Jahren Kunden aus diversen Branchen zum Thema SEO.
Sie brauchen zuverlässige Unterstützung zum Thema Suchmaschinenoptimierung? Fragen Sie nach einer unverbindlichen Erstberatung mit kostenlosem SEO-Check Ihrer Website.