Problem: Listy pisane przez sztuczną inteligencję cieszą się ogromną popularnością w publikacjach naukowych
Czasopisma naukowe na całym świecie borykają się z nieoczekiwanym napływem listów pisanych przez sztuczną inteligencję, a nie przez badaczy-ludzi. Z przełomowego badania wynika, że chatboty przygotowują korespondencję do prestiżowych publikacji medycznych i naukowych, budząc obawy co do integralności komunikacji naukowej.
Zjawisko to zwróciło uwagę po tym, jak naukowcy odkryli, że te systemy sztucznej inteligencji są w stanie naśladować styl pisania ekspertów w niektórych dziedzinach. Te modele językowe, poszukujące odniesień w wyspecjalizowanych obszarach z ograniczoną literaturą, czasami wykorzystują własne prace badaczy, aby wzmocnić swoje argumenty.
Pojawia się wyraźny znak
Problem wyszedł na światło dzienne dzięki doświadczeniu dr Carlosa Chacora, specjalisty ds. chorób tropikalnych na Uniwersytecie Nawarry w Hiszpanii. Po opublikowaniu artykułu na temat kontroli malarii w The New England Journal of Medicine otrzymał list ostro krytykujący jego badania.
Niezwykłe było to, że list zawierał konkretne odniesienia do badań, które napisał sam dr Chakor. Podejrzliwy co do tego zbiegu okoliczności dr Chakor zbadał sprawę i doszedł do wniosku, że list został wygenerowany przez duży model językowy.
Ujawniono wzór
Ten odosobniony przypadek uwypuklił szerszą tendencję. Doktor Chakor i jego zespół przeanalizowali ponad 730 000 e-maili opublikowanych w czasopismach naukowych od 2005 r. i odkryli gwałtowny wzrost podejrzanej korespondencji zbiegający się z powszechną dostępnością zaawansowanych systemów sztucznej inteligencji.
Stwierdzono, że po roku 2023 autorzy nagle wysyłają niezwykle dużą liczbę e-maili. Jeden z badaczy opublikował w ciągu jednego roku w kilku czasopismach 234 listy. Inny autor zwiększył liczbę publikowanych listów z 0 w 2023 r. do 84 w 2025 r.
Redaktorzy biją na alarm
Problem wykracza poza doświadczenie doktora Chakora. Dr Eric Rubin, redaktor naczelny The New England Journal of Medicine, potwierdził wysoką motywację autorów do korzystania ze sztucznej inteligencji w celu poprawy wskaźników publikacji.
„Listy do redakcji publikowane w czasopismach naukowych są umieszczane w bazach danych, w których znajdują się także artykuły z czasopism, i są liczone w taki sam sposób jak artykuły” – wyjaśnił dr Rubin. “W przypadku bardzo niewielkiej pracy można w CV umieścić artykuł w The New England Journal of Medicine. Motywacja do oszukiwania jest wysoka. “
Skala problemu
Badanie ujawniło alarmujące statystyki:
- 6% listów w 2023 r. pochodziło od płodnych autorów (tych, którzy publikowali trzy lub więcej listów rocznie)
- Liczba ta wzrosła do 12% w 2024 r
- Obecne liczby są bliskie 22%
Doktor Emmy Gelfand, redaktor naczelna magazynu Headache, zauważyła, że podejrzane e-maile często docierają wkrótce po opublikowaniu artykułów, w przeciwieństwie do autorów, którzy zazwyczaj odpowiadają w ciągu kilku tygodni.
Rosnące zaniepokojenie
Rozpowszechnianie listów generowanych przez sztuczną inteligencję stanowi poważne zagrożenie dla dialogu naukowego. Ta zautomatyzowana komunikacja często udaje uzasadniony wkład, ale brakuje jej wiedzy specjalistycznej i szczegółowej wiedzy, jaką wnoszą badacze-ludzie.
„Wyniki ich [AI] mogą wydawać się wiarygodne, ale brakuje im głębi, kontekstu i krytycznego myślenia, które charakteryzują prawdziwą wymianę naukową” – zauważył dr Chakor.
Jak zauważył dr Chakor, te listy generowane przez sztuczną inteligencję „atakują czasopisma takie jak Omicron”, co stanowi odniesienie do wariantu Covida, który szybko wyparł inne szczepy
