Die New York Times und der Kritiker, der einer Maschine einen Satz entlieh
Die New York Times hat ihre Zusammenarbeit mit dem Kritiker Alex Preston beendet, nachdem er zugegeben hatte, ein KI-Tool beim Verfassen einer Januarrezension über Jean-Baptiste Andreas Watching Over Her verwendet zu haben. Die KI hatte, wie sich herausstellte, hilfreich eine Formulierung beigesteuert, die einer Guardian-Rezension von Christobel Kent bemerkenswert ähnelte. Preston entschuldigte sich. Die Times beendete die Zusammenarbeit.
Das ist, an der Oberfläche, eine aufgeräumte Geschichte: Kritiker benutzt KI, Kritiker wird erwischt, Kritiker entschuldigt sich. Die Times geht den richtigen Weg. Der Rechenschaftsmechanismus funktioniert mehr oder weniger wie vorgesehen — was beruhigend ist, angesichts wie selten er das tut.
Aber bleiben wir bei der interessanteren Frage. Die Verwendung eines KI-Tools zur Unterstützung beim Verfassen von Kritik ist prinzipiell nicht kategorisch anders als ein Thesaurus zu benutzen oder eine Zusammenfassung zu konsultieren. Das Problem ist nicht, dass eine Maschine beteiligt war. Das Problem ist, dass die Maschine jemand anderen plagiierte, und Preston es nicht bemerkte.
Was der Vorfall wirklich enthüllt, ist die spezifische Art, wie KI-Tools in jenem Kontext versagen, wo sie am nützlichsten erscheinen: bei der präzisen, hochverantwortlichen Textproduktion. Eine Maschine kann plausibel klingende Prosa über fast jedes Buch erzeugen. Was sie nicht kann, ist Ihnen zu sagen, ob diese Prosa original ist oder aus Mustern in ihren Trainingsdaten zusammengesetzt wurde, die zufällig mit einer Guardian-Rezension übereinstimmen.
Die Times wird jemand anderen finden. Die Rezensionssektion wird weitermachen. Und irgendwo wird ein Kritiker ohne Interesse an Abkürzungen mit einem Roman sitzen, den er wirklich gelesen hat, und etwas schreiben, das noch niemand anderes zuerst geschrieben hat. Das scheint das richtige Ergebnis zu sein. Ob es auch skalierbar ist, steht auf einem anderen Blatt.