Przejdź do głównej treści

New York Times i krytyk, który pożyczył zdanie od maszyny

J
James Whitmore
· 3 min czytania
New York Times i krytyk, który pożyczył zdanie od maszyny

New York Times zakończył współpracę z krytykiem Alexem Prestonem po jego przyznaniu się do używania narzędzia sztucznej inteligencji podczas pisania recenzji ze stycznia, poświęconej Watching Over Her Jeana-Baptiste'a Andrei. AI, jak się okazało, uprzejmie wyszła z propozycją frazy, która do złudzenia przypominała recenzję Guardiana pióra Christobel Kent. Preston przeprosił. Times zakończył współpracę.

To jest, na pierwszy rzut oka, schludna historia: krytyk używa AI, krytyk zostaje przyłapany, krytyk przeprasza. Mechanizm rozliczalności działa mniej więcej tak, jak został zaprojektowany — co jest uspokajające, biorąc pod uwagę, jak rzadko to robi.

Ale zostańmy przy ciekawszym pytaniu. Użycie narzędzia AI do pomocy przy pisaniu krytyki literackiej nie jest, co do zasady, kategorycznie różne od korzystania z tezaurusa lub konsultowania streszczenia. Problem nie polega na tym, że zaangażowana była maszyna. Problem polega na tym, że maszyna splagiowała kogoś innego, a Preston tego nie zauważył.

To, co naprawdę ujawnia ten epizod, to specyficzny sposób, w jaki narzędzia AI zawodzą właśnie w kontekście, w którym wydają się najbardziej przydatne: precyzyjnym, wysoce odpowiedzialnym wytwarzaniu tekstu. Maszyna może generować brzmiącą wiarygodnie prozę o prawie każdej książce. Nie może powiedzieć, czy ta proza jest oryginalna czy zmontowana z wzorców w jej danych treningowych, które przypadkowo pokrywają się z recenzją Guardiana opublikowaną trzy tygodnie wcześniej.

Times znajdzie kogoś innego. Sekcja recenzji będzie kontynuowana. I gdzieś krytyk bez zainteresowania skrótami usiądzie z powieścią, którą naprawdę przeczytał, i napisze coś, czego nikt wcześniej nie napisał. To wydaje się właściwym wynikiem. Czy jest też skalowalny — to zupełnie inna kwestia.