Auswirkung von „Chat GPT“ auf Ghostwriting
Das Thema „KI“ (künstliche Intelligenz) ist in aller Munde. Tech-Schlagwörter wie Deep Learning, maschinelles Lernen und Ghat GPT dominieren seit geraumer Zeit die Schlagzeilen in diesem Ressort. Und wie so oft ist es für Außenstehende dabei gar nicht so leicht abzuwägen, was davon jetzt belastbare Zukunftsvision und was reiner Marketing-Hype ist. Insbesondere die Texterstellung soll dabei von automatisierten Chat Bots, wie Chat GPT, maßgeblich vereinfacht werden. Texte aus der KI-Feder! Gerade für uns als Ghostwriting Agentur ist das natürlich ein brisantes Thema, mit dem wir uns selber experimentell auseinandergesetzt haben. Unser Fazit ist dabei denkbar klar: KI wird Ghostwriting sowie wahrhaft individuelle Texterstellung auch in nächster Zukunft nicht überflüssig machen. Im Folgenden erfahren Sie, warum dem so ist.
KI unterliegt programmatischen Einschränkungen
Der Begriff künstliche „Intelligenz“ ist im Grunde irreführend, denn er impliziert wesentliche Fähigkeiten, die wir mit „Intelligenz“ in Verbindung bringen, die KI aber gar nicht bieten kann. Eigene Schlüsse zu ziehen, sich inhaltlich und sachlich mit etwas auseinanderzusetzen, inhaltliche Zusammenhänge herzustellen, die Fähigkeit zur Abstraktion ….. KI kann nichts von all dem, denn KI ist im Grunde genommen nichts weiter als theoretische Automatisierung. Ein Chat Bot ist sich ebenso wenig klar über sich selbst und über das, was er tut, wie ein elektrischer Roboterarm am Fließband, der immer gleiche Routinen vornimmt – mit identischen Resultaten. Denn KI ist nichts weiter als Programmierung. Und diese Programmierung kann immer nur in dem funktionalen Rahmen scheinbar autonom agieren, für den sie geschaffen wurde. Sie ist ein Werkzeug, keine denkende Entität. KI hat so viel eigene Agenda und Denkvermögen wie der Hammer im Werkzeugschuppen.
Insoweit sind auch die bisweilen lustvollen Spekulationen darüber, dass wir bald alle unsere Arbeit verlieren und bedingungsloses Grundeinkommen beziehen, weil die Roboter uns alles abnehmen, völlig überzogen. Denn es gibt eine Sache, von der KI noch so weit entfernt ist wie eh und je. Sie kann nichts improvisieren und ist (anders als wir Menschen) vollkommen unflexibel. Denn sie ist ein reines Spezialwerkzeug. Das lässt sich ja bereits daran erkennen, dass es kein Allerweltsprogramm gibt. Jedes Programm ist immer sehr spezifisch für einen bestimmten Zweck geschrieben. Denn nur so wird es effizient und die Variablen, auf denen sämtliche Programmiersprachen und Maschinensprachen beruhen, bleiben beherrschbar. Das, was der Code definiert, sind pure Routinen – keine Denkvorgänge. Das Label „künstliche Intelligenz“ ändert daran rein gar nichts.
So arbeitet Chat GPT
Chat Bots sind grundsätzlich nichts Neues. So gab es schon in den 1960ern den Chat Bot Eliza, der als virtuelle Psychotherapeutin Texteingaben interpretieren und Ratschläge geben konnte. Jedoch war hinter den Kulissen kein denkender Rechner, der sich aufrichtig um seine Patienten gesorgt hat. Stattdessen wurden, basierend auf den Inputs der Nutzer, Empfehlungen ausgegeben, die sich auf Versatzstücke aus normaler Konversation und Lehrbuchempfehlungen aus dem psychologischen Bereich gestützt haben. Es war im Grunde genommen ein automatisiertes Ratespiel. Selbst, wenn das, was dabei herumkam, formal leserlich und inhaltlich gut gemeint sowie konstruktiv erschien, war es im Grunde genommen nichts weiter als das Resultat einer Suchmaschine.
Chat GPT funktioniert im Kern genauso. Nur dass die Parallele zur Suchmaschine hier noch offensichtlicher ist. Wer sich auf Chat GPT beruft, um einen Text zu erstellen, bekommt im Kern zusammengewürfelte Suchergebnisse von Google und Co. Diese können sich aus Tutorials, Blogbeiträgen (wie diesem hier), Wikipedia Einträgen, Forenpostings usw. speisen. Und genau da liegt die Krux. Denn was hoch in den Suchmaschinen rangiert, muss nicht zwangsläufig inhaltlich richtig sein. Doch wie wird das durch die KI differenziert? Überhaupt nicht! Wären unsere Suchmaschinen allein den Algorithmen und keiner laufenden Kontrolle durch menschliche Mitarbeiter unterworfen, würden Fake News noch viel leichter gedeihen, als sie dies jetzt schon tun. Das ist auch der Grund, warum Chat GPT gerade bei Themen, zu denen viele Fehlinformationen herumgeistern (bspw. politische Reizthemen), viel Unsinn in die Texte packt. Das Ganze ist nichts weiter als ein elaboriertes Ratespiel, was (rein formal) sinnvollerweise die nächsten paar Wörter sein könnten. Das ist Texterstellung nach dem „stille Post“ Prinzip.
Die Arbeit geht uns auch in Zukunft nicht aus
Nach jetzigem Stand atmen wir also ganz entspannt durch, denn Chat Bots werden uns auch in mittelfristiger Zukunft die Arbeit nicht streitig machen. Automatisierung mag überall dort sinnvoll sein, wo es was von der Stange sein darf. Sprich: Texte, bei denen es noch nicht mal wichtig ist, ob sie nun einzigartig sind oder nicht. Doch technische Anforderungen, wie textliche Suchmaschinenoptimierung und akademisches Ghostwriting sind dringend darauf angewiesen, stets einzigartige und inhaltlich korrekte Texte zu liefern. Eine Maßarbeit, zu der KI schlicht nicht in der Lage ist. Zumindest nicht so lange sie sich einen Frankenstein-Text zusammenschustert, der im Grunde genommen auf Suchergebnissen beruht, die stimmen können … oder auch nicht. Und wenn dann noch mehrere Studierende gleichzeitig auf die Idee kommen, solche Texte einzureichen und dabei ähnliche oder identische Themen bedienen, darf sich niemand wundern, wenn die Texte sehr gleichförmig daherkommen. Denn das gebietet die Logik der künstlichen „Intelligenz“.