KI-Texte - nicht intelligent, aber wahrscheinlich
Die meisten verwendeten Tools für die Texterzeugung basieren auf dem Einsatz neuronaler Netzwerke. Diese wurden wie im Fall von ChatGPT mit Milliarden von Artikeln, Büchern und Webseiten gefüttert, die sie mit teils komplexen Algorithmen miteinander verknüpfen. Wenn ein Anwender diesem sogenannten Large Language Model (LLM) eine Anweisung, den sogenannten Prompt, erteilt, erstellt das Tool einen Text zu praktisch jedem beliebigen Thema. Dieser Text wird erzeugt, indem das Tool binnen Sekunden die Wahrscheinlichkeit berechnet, mit der aufgrund der gespeicherten Vorlagen ein Wort auf das nächste folgt. Dahinter steckt also weniger eine wertende und analysierende Intelligenz als vielmehr eine Reihe mathematischer Prozesse.
Viele Möglichkeiten KI-Texte einzusetzen
Dabei lassen sich nicht nur die Themen frei wählen, sofern sie nicht den ethischen Vorgaben widersprechen. Die Tools sind auch in der Lage, die Stimmung, den Ton, die fachliche Tiefe oder die Rolle des Schreibenden je nach Anweisung im Text abzubilden. Dabei kann inzwischen in nahezu jeder Sprache agiert werden. Im umgekehrten Sinn können die Tools selbst umfangreiche Texte interpretieren, zusammenfassen, übersetzen oder auch auf ihren Fake-Gehalt und die mutmaßlichen Quellen analysieren. Um die dazugehörigen Quellen in Echtzeit also nach aktuellem Wissensstand zu verwenden, benötigt man allerdings zusätzliche Software, die man z.B. bei der Bezahlversion von ChatGPT 4.0 in Form sogenannter Plugins automatisiert zuschalten lassen kann. Dann kann man sich sogar Keywords für SEO-Texte finden und sinnvoll einbauen lassen.
Die Grenzen und Risiken der KI-Texte
Damit kommen wir zu den Grenzen und Nachteilen der KI. Ein LLM wie ChatGPT kann Wahrscheinlichkeiten berechnen, aber nicht zählen. Die Vorgabe einer gewissen Wortzahl versagt regelmäßig, der Text wird viel zu kurz oder zu lang. Ebenso wenig ist die KI in der Lage, für den Wahrheitsgehalt eines Textes zu garantieren. Bei den eingespielten Vorlagen befinden sich logischerweise auch viele alte, unzutreffende oder bewusst falsch angegebene Daten. Daher kann ein künstlich erzeugter Text nicht nur sachliche Fehler, sondern haarsträubende Falschangaben enthalten. Diese können bei sorgloser Veröffentlichung rechtliche Folgen nach sich ziehen. ChatGPT “beherrscht” auch diverse Programmiersprachen, allerdings haben Fehler im Code ohne vorherige Prüfung schon manchen Absturz verursacht. Die wichtigste Begrenzung der KI verbirgt sich jedoch hinter der alten Programmierer-Weisheit “Garbage in Garbage out”.
Bei der Erzeugung von Inhalten entscheidet die Qualität der Prompts
Der fast alles entscheidende Anteil einer zufriedenstellenden Arbeit mit KI-Tools wie ChatGPT liegt in der Formulierung der Prompts, also der Anweisungen, nach denen die KI arbeitet. Sie können einerseits gar nicht genau und detailliert genug sein, damit der Text nicht typisch hölzern klingt und den Vorstellungen in Bezug auf Inhalt und Stil entspricht. Die KI nimmt eben alles wörtlich. Andererseits dürfen sie nicht zu umfangreich und vielschichtig werden, denn dann versagt das Fassungsvermögen und es entstehen andersartige Fehler oder auch Abbrüche des Auftrags. Zwar gibt es Plugins, die die Prompts perfektionieren, aber diese weisen die gleichen Grenzen auf. Hier hilft oft nur, immer wieder nachzubessern. Die Erstellung eines wirklich funktionierenden Prompts erfordert oft mehr Zeit, als einen kleinen Text selbst zu verfassen. Falls es sich um viele gleichartige Texte wie z.B. Produktbeschreibungen handelt, zeigt die KI aber ihre ganzen Vorteile.
Nötige Warnungen vor der KI
Dennoch sollte kein künstlich erzeugter Text Ihr Unternehmen verlassen, ohne dass er von einem Kenner der Materie überprüft und ggf. nachrecherchiert wurde. Die Risiken sind zu hoch. Dazu kommt der Datenschutz. Alle Arten schützenswerten oder -pflichtigen Inhalte sind in diesen Tools nicht sicher und werden möglicherweise zu Trainings- oder sogar Werbezwecken weiterverwendet. Wesentlich auch: Google hat zwar derzeit die Verwendung von KI-generierten Texten genehmigt. Das liegt auch daran, dass es zu aufwendig oder gar unmöglich ist, sie eindeutig zu identifizieren. Aber das muss nicht so bleiben. Und dann drohen bei Verwendung der KI für SEO-Texte heftige Abstürze im Ranking. Außerdem betont Google, dass weiterhin solche Texte den Vorrang in der Suchmaschine erhalten, die tatsächlich neuartige Informationen und damit echten Mehrwert bieten. Das schafft die KI aber keinesfalls, sie kann nur wiederkäuen.
Die neue Gesetzgebung der EU
Die kürzlich beschlossenen EU-Richtlinien zur Regelung der Verwendung von Künstlicher Intelligenz stellen einen wichtigen ersten Schritt in der Regulierung dieser Technologie dar. Jedoch trifft das für die Erstellung von Texten nur in einem begrenzten Maß zu. Die Leitlinien der EU zielen darauf ab, die Risiken für den KI-Einsatz zu minimieren. Daher richten sich die Vorschriften insbesondere auf solche Einsätze, die hohe Risiken für den Schutz des Menschen beinhalten wie die mögliche Verletzung von Menschenrechten, die Verwendung personenbezogener Daten oder die Bedienung von Hochsicherheits- oder Energietechnologien. Für die Erzeugung von Texten sollen die Hersteller dazu verpflichtet werden, bestimmte Transparenz- und Offenlegungspflichten zu erfüllen, also zum Beispiel der Verweis auf die künstliche Herkunft eines Textes. Besonders geschützt werden sollen allerdings der Datenschutz und die Privatsphäre. Für ihre Verletzung werden hohe Strafen in Aussicht gestellt. Dagegen können KI-erzeugte Inhalte (wie übrigens auch Bilder) derzeit nicht per Copyright geschützt werden.
Bei purpix ziehen wir es vor, SEO-Texte für unsere Kunden wie auch Pressetexte wie diesen weiterhin von Hand zu schreiben. Das braucht etwas mehr Zeit, ist aber verlässlich recherchiert, bietet echten menschlichen Stil und behält seinen Wert auf Dauer.