Drucken

15. November 2023

Es sind zum einen die beachtlichen Fortschritte von KI Sprachmodellen, die den Hype ausgelöst haben. Zur übertriebenen Begeisterung hat aber auch beigetragen, dass ein Tool wie ChatGPT kostenlos und leicht zugänglich für jedermann ist, Vielen ist erst seit letztem November aufgegangen, dass es KI Sprachmodelle schon seit vielen Jahren gibt, freilich nicht so leistungsfähige wie jetzt. Erst seit ca. einem Jahr ist von „einer KI“ bzw. von „KIs“ die Rede, so als habe OpenAI die Künstliche Intelligenz erfunden.

            Zum Hype, jedenfalls dem um ChatGPT, gehört auch dazu, dass die meisten Autoren – seien es Wissenschaftler, sonstige Experten oder beispielsweise Lehrpersonen – die neuen Tools zunächst über den grünen Klee loben. Früher oder später kommen sie dann ohne Ausnahme auf die Unzulänglichkeiten zu sprechen, die eine Überprüfung jeder, aber auch jeder Generierung nötig machen.

            Bei ihrer Ansicht, KI Sprachmodelle produzierten Texte, die in vielen Fällen von „menschengemachten“ nicht zu unterscheiden seien, bleiben sie nichtsdestoweniger. Meine Vermutung: Die einen können nicht besonders gut schreiben und sind vom Wortschwall von ChatGPT beeindruckt. Die anderen lassen eine sinnvolle Gedankenführung außer Acht, Hauptsache die Grammatik ist ok. Meine Frage: Was bitte macht einen authentischen Text aus? Sollen wir in Zukunft alle wie ChatGPT schreiben? Sollen wir das Thema, die Anfrage oder die Aufforderung wieder aufnehmen, um dann mit vielen Worten wenig zu sagen? Sollen wir bei Bewertungen das vorgelegte Dokument zunächst nachhaltig loben, um dann am Schluss auf die Unzulänglichkeiten zu sprechen kommen?

            Es sind zahlreiche Experimente durchgeführt worden, bei denen Dokumente einer KI oder einem Menschen zugeordnet werden sollten. Wie wäre es mit einem Experiment, bei dem schreibgewandte Experten, ohne zu wissen wer der Urheber ist, die vorgelegten Texte korrigieren und bewerten?