L'Intelligenza Artificiale veste i panni dello scienziato: firma pubblicazioni scientifiche, finendo nella lista degli autori di ricerche pubblicate su riviste biomediche e su database dedicati, e confeziona testi scientifici “fasulli”, che, però, in un caso su tre i curatori editoriali dei giornali scientifici non riescono a distinguere come falsi, tanto da scatenare un vero putiferio nella comunità scientifica internazionale. E’ la nuova realtà di ChatGPT, l’algoritmo open access progettato per generare testi simili a quelli umani, attingendo a un enorme database di testi.
Rilasciato a novembre 2022 dalla compagnia OpenAI di San Francisco, il nuovo sistema di IA ha scosso il mondo della scienza e molti editori di riviste di primo piano, come “Science” e “Nature” stanno correndo ai ripari per salvaguardare l’integrità delle proprie pubblicazioni.
Secondo quanto riportato in diversi articoli pubblicati proprio su “Nature”, gli scienziati stanno esprimendo serie preoccupazioni, perché l’ormai popolarissimo chatbot ChatGPT potrebbe produrre in modo sempre più convincente false ricerche, in grado di ingannare gli esperti e quindi di orientare la ricerca scientifica verso obiettivi sbagliati, con danni ancora difficili da valutare per l’intera società.
È questa possibilità che ha indotto Catherine Gao dell’ospedale Northwestern Medicine a testare la capacità dell’algoritmo di ingannare la comunità dei revisori scientifici: in collaborazione con un team dell’Università di Chicago, Gao ha presentato ad alcuni revisori esperti un mix di testi scientifici reali (gli “abstract”), e quindi già pubblicati su importanti riviste di settore, e altri generati, invece, dal chatbot. I revisori sono riusciti a individuare gli “abstract” generati da ChatGPT solo il 68% delle volte, mentre nel restante 32% dei casi hanno attribuito il testo a scienziati in carne e ossa. I revisori hanno anche erroneamente identificato il 14% degli “abstract” scritti dall’essere umano come generati dall’IA.
“I nostri revisori sapevano che alcuni degli abstract che venivano presentati loro erano falsi e, quindi, erano già in partenza molto sospettosi - sottolinea Gao -. Il fatto che i nostri revisori abbiano comunque mancato quelli generati dall’IA in un caso su tre significa che questi abstract sono scritti davvero bene. Sospetto - aggiunge – che, se qualche esperto si imbattesse in uno degli abstract fasulli, non sarebbe sempre in grado di identificarlo come scritto dall’Intelligenza Artificiale”.
Secondo Gao, i falsi abstract, sempre più difficili da individuare, potrebbero compromettere la credibilità e l’efficacia della scienza: infatti, se ChatGPT venisse utilizzato per creare abstract scientifici convincenti da organizzazioni illegali che producono lavori falsificati a scopo di lucro, “costruire il proprio lavoro sulla base di questi studi falsi potrebbe essere davvero pericoloso per il corso futuro della ricerca”.
Intanto, il chiacchieratissimo algoritmo è già entrato, anche senza sotterfugi, nell’alveo degli autori scientifici: è il coautore in diverse pubblicazioni uscite su riviste di settore. E’ finito, per esempio, come coautore in un editoriale apparso sulla rivista “Nurse Education in Practice” accanto a Siobhan O’Connor, della
University of Manchester, anche se successivamente il direttore della rivista ha operato una rettifica.
Alex Zhavoronkov, amministratore delegato di Insilico Medicine, azienda specializzata nello sviluppo di farmaci generati da una piattaforma basata sull'IA, ha citato ChatGPT come coautore di un suo articolo pubblicato nel dicembre 2022 sulla rivista “Oncoscience” sui pro e contro dell'assunzione del farmaco rapamicina. Lo studioso afferma che la sua azienda ha pubblicato più di 80 articoli prodotti con la collaborazione dell’IA.
ChatGPT è anche uno dei 12 autori di un “preprint” sul suo utilizzo per la formazione medica, pubblicato sul database di medicina medRxiv. Ora il team di medRxiv e del suo sito gemello, bioRxiv, stanno discutendo se sia appropriato usare e accreditare strumenti di IA nella scrittura degli studi: l’ha spiegato il cofondatore Richard Sever, vicedirettore del Cold Spring Harbor Laboratory press di New York, aggiungendo che tutti gli scenari sono soggetti a veloci cambiamenti.
Invece, i caporedattori di “Nature” e “Science” hanno dichiarato che ChatGPT non soddisfa gli standard di paternità delle loro riviste. “L'attribuzione della paternità comporta la responsabilità del lavoro, che non può essere applicata efficacemente agli algoritmi”, afferma Magdalena Skipper di “Nature”. Gli autori che utilizzano questi strumenti – ha sottolineato - dovrebbero documentarne l'uso nelle sezioni dedicate ai metodi o ai ringraziamenti. “Non permetteremo mai che l'IA compaia nella lista degli autori in un articolo da noi pubblicato e l'uso di un testo generato dall'IA, senza un'adeguata citazione, potrebbe essere considerato plagio”, ha dichiarato Holden Thorp, caporedattore della famiglia di riviste “Science” di Washington DC.
Intanto, da un’indagine lanciata da “Nature” che ha coinvolto finora circa 500 ricercatori in tutto il mondo, è emerso che il 16%
dei partecipanti ha dichiarato di utilizzare strumenti come ChatGPT come ausilio per scrivere manoscritti sulla propria ricerca, produrre presentazioni o condurre revisioni della letteratura scientifica. Il 10% ha dichiarato di utilizzarli per scrivere richieste per candidarsi e ottenere finanziamenti e il 10% per generare grafici e immagini. Ma le preoccupazioni sulla possibilità di un uso improprio restano: per molti intervistati c’è il rischio di errori o distorsioni. Il futuro prossimo è altamente incerto.
Nessun commento:
Posta un commento