Die Medien sind derzeit voll von Analysen über künstliche Sprachintelligenz.

Spiegel, FAZ, Süddeutsche, Südwest Presse u.v.a.: ChatGPT (Generative Pre-trained Transformer) ist aktuell ähnlich in aller Munde wie vor Jahren I4.0 (Industrie 4.0), also die komplette Digitalisierung und Vernetzung aller Wertschöpfungsketten untereinander. Bei ChatGPT geht es nun letztlich um Sprechen und Sprache, wo der Mensch bislang noch einen Exklusivanspruch hatte.

Wobei auch hier längst das gesprochene Wort in das geschriebene transformiert werden kann oder das Deutsche sofort ins Englische oder viele andere Sprachen. Ich selbst habe als junger Redakteur 1991/92 noch erlebt, dass viele Führungskräfte zwar keinen PC hatten (und wenn, dann nur zur Dekoration), aber Sekretärinnen, denen sie Briefe diktierten etc. Später druckten diese bspw. e-Mails an den Chef aus und legten ihm diese zur Beantwortung vor.

Dabei hat es in meiner Journalistenbranche schon vor zehn Jahren geheißen, den konventionellen Sportbericht über ein Bundesligaspiel schreibt der Computer allein, dem etwa die Eingaben für die digitale Stadionanzeigentafel zur Orientierung reichten. Der Deutsche Journalisten-Verband (DJV) warnt nun vor „gravierenden Veränderungen“ für unseren Berufsstand durch die Sprach-KI ChatGPT, die immer intelligenter wird. Die Gewerkschaft meint damit Personalabbau.

Das muss im 08/15-Journalismus kein Verlust sein. Im Gegenteil. So können Medien den Ausfall von Anzeigen, die längst ins Internet abgewandert sind, teils kompensieren. Jessica Heesen, die an der Uni Tübingen den Forschungsschwerpunkt Medienethik und Informationstechnik leitet, meint sogar, ChatGPT könne bei Recherchen unterstützen, indem relevante Fakten per Suchbegriff zugeführt werden.

Thema in allen Medien: Die ChatGPT.

Das erhöhe zwar das Risiko, Falschinformationen aufzusitzen und diese weiter zu publizieren, so Heesen, aber diese Gefahr besteht auch bei klassischen Recherchen am Telefon. Und daraus ergibt sich wieder das Alleinstellungsmerkmal des Menschen, das ihn – mit seinem kritischen Verstand – unersetzlich macht. Denn während der Bot nur reproduzieren kann, kann der Mensch Neues schaffen, z.B. bisher Ungehörten eine Stimme geben, bei einer Straßenumfrage zufällige und inhomogene Ansichten sammeln und Positionen und Fakten zu neuen Überlegungen zusammenführen.

Ähnlich verhält es sich in Berufen, die auch stark vom Sprechen und der Auswertung von Fakten abhängen. Das sind zum Beispiel Personalmanager, die künftig stärker von ihrer Intuition abhängig sind und dem Abschied von Standardfragen und -bewerbungsschreiben, die nichts mehr über den Bewerber aussagen. Ganz ähnlich sieht es im Bildungswesen aus, wo Lehrer und Dozenten künftig weniger die Lösung bewerten werden, sondern mehr den Prozess dorthin.

In der Juristerei kann ChatGPT ebenso wenig den Anwalt oder Richter ersetzen, der Paragraphen interpretiert, Fälle relativiert und neue Kontexte herstellt. Dagegen kann die KI ihm rasch vermeintlich vergleichbare Fälle aufrufen oder Paragraphen, die seine Logik decken könnten. Die eigentliche Gefahr besteht eher darin, den Bot Bullshit texten zu lassen, der wie eine Rechtsauskunft oder -belehrung klingt, in Wahrheit aber Phrasendrescherei ist, die der Laie nicht mehr erkennt.

Dasselbe Phänomen wird bei den Softwareentwicklern auftauchen. Wer das Programmieren nicht tief genug durchdringt, wird wie der 08/15-Redakteur von der Maschine ersetzt, die Phrasen rascher drischt. Der wahre Entwickler aber wird sich diese Dienste zu Nutzen machen, sich auf seine Essenz konzentrieren zu können. Therapeuten wird es übrigens ähnlich gehen. Standards etwa zu Sucht, Stress oder Depression spult auch die ChatGPT ab, während biographische Zusammenhänge weiterhin nur der empathische Therapeut ins Bewußtsein wird holen können.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert