Anche ChatGPT sembra essere molto convincente negli abstract scientifici (e i revisori lo lasciano con gli occhi ben aperti)

I ricercatori hanno arruolato il controverso chatbot per scrivere abstract per studi ipotetici. Ne sono risultate versioni spaventosamente buone.

Potrebbe un nuovo ed estremamente popolare chatbot, ChatGPT, fabbricare in modo convincente falsi abstract di studi scientifici inesistenti, portando gli scienziati a credere che gli studi fossero reali? Questa è stata la domanda che i ricercatori si sono posti Nuovo studio voluto rispondere. Forse la risposta inquietante a questa domanda è sì. Gli scienziati saranno sicuramente ingannati.

Ulteriori informazioni su ChatGPT
ChatGPT è un chatbot AI sviluppato dalla società di intelligenza artificiale OpenAI. I chatbot sono stati recentemente diffamati per la loro capacità quasi inquietante di generare script simili a quelli umani. Fai una domanda e la finestra di chat genererà una risposta chiara in molte diverse aree di conoscenza. In effetti, ChatGPT è così specializzato nel linguaggio che può scrivere interi articoli e poesie, difficili da distinguere dai testi scritti dall’uomo.

I ricercatori hanno preso solo i titoli degli studi scientifici pubblicati di recente e poi hanno lasciato che ChatGPT generasse un riassunto appropriato (abstract). Hanno quindi eseguito il riassunto scritto di ChatGPT, insieme all’originale, attraverso un rilevatore di plagio e intelligenza artificiale e hanno chiesto ai revisori di distinguere tra i due. Per ogni revisore sono stati forniti 25 abstract misti. Quindi ha dovuto fare riferimento all’estratto originale.

slip falsi
“I revisori sapevano che alcuni dei riassunti che avevano ricevuto erano falsi, quindi erano molto sospettosi”, ha detto Catherine Gao, l’autrice principale dello studio. Nonostante ciò, anche questi revisori scettici non sono riusciti a individuare tutti i falsi riassunti. Solo nel 68% dei casi, sono stati in grado di scegliere quali versioni di ChatGPT sono state generate. Inoltre, credevano erroneamente che il 14 percento degli abstract reali fosse scritto da AI. “I nostri revisori hanno notato che era sorprendentemente difficile distinguere tra riassunti reali e fabbricati”, ha detto Gao. E questi sono revisori davvero abili. Il fatto che non abbiano ancora riconosciuto il digest originale nel 32% dei casi significa che le versioni scritte da ChatGPT sono davvero buone. Sospetto che se uno scienziato ignaro vedesse uno di questi digest generati, non si accorgerebbero che è stato compilato da AI”.

READ  Biden: Il cambiamento climatico rappresenta una minaccia maggiore della guerra nucleare

mascherato
Uno dei motivi per cui i riepiloghi di ChatGPT sono convincenti è perché sembrano ben informati. “ChatGPT sa quanto è grande il pool di pazienti da avere quando si tratta di numeri”, spiega Gao. “Per uno studio sull’ipertensione, ChatGPT ha riferito che decine di migliaia di pazienti hanno partecipato allo studio, che in realtà è molto comune. Pertanto, molti meno partecipanti hanno partecipato a uno studio sul vaiolo delle scimmie”.

preoccupante
La facilità con cui ChatGPT produce riepiloghi fattuali e convincenti è allarmante. “L’uso senza scrupoli dei chatbot può minare la scienza”, afferma Gao. Secondo loro, non è irragionevole che ChatGPT venga utilizzato dai cosiddetti cartiere (Organizzazioni illegali che producono opere scientifiche fabbricate a scopo di lucro) vengono utilizzate per fabbricare abstract scientifici convincenti. “Se altre persone basano la loro ricerca scientifica su questi studi imprecisi, potrebbe essere davvero pericoloso”, sembra preoccupato.

Rivelatore AI
Fortunatamente, ci sono anche rilevatori di intelligenza artificiale. I risultati mostrano che gli abstract falsi non sono riconosciuti come tali dai tradizionali rilevatori di plagio. Ma i rilevatori di intelligenza artificiale, come Rivelatore di uscita GPT-2, disponibile online gratuitamente, può distinguere tra abstract reali e fabbricati. “Abbiamo scoperto che questo rilevatore di intelligenza artificiale ha funzionato molto bene”, ha detto Gao. Raccomandiamo quindi che questi rilevatori di intelligenza artificiale vengano utilizzati più spesso nel processo di editing scientifico come arma contro Cartiereche potrebbe tentare di inviare solo i dati generati.

per il meglio
Nonostante tutte le preoccupazioni, ChatGPT può anche essere usato per sempre. “I modelli di linguaggio AI possono aiutare ad automatizzare il processo di scrittura, che spesso è un collo di bottiglia nella generazione e diffusione della conoscenza”, ha affermato il ricercatore Yuan Luo. “I nostri risultati mostrano che questo è probabilmente possibile in medicina, anche se dobbiamo ancora colmare alcune delle lacune etiche e pratiche”. Inoltre, ChatGPT può democratizzare ulteriormente la scienza, ritiene il ricercatore Alexander Pearson. “Ad esempio, potrebbe rendere più facile per gli scienziati non madrelingua inglese condividere il proprio lavoro con una comunità più ampia. Allo stesso tempo, è necessario riflettere attentamente su come utilizzare al meglio questi chatbot”.

READ  Robot impara ad abbracciare osservando le persone | Scienze

Potresti non aver ancora detto l’ultima parola in ChatGPT. Ad esempio, la comunità scientifica discute fino a che punto sia accettabile utilizzare tali programmi linguistici. Qual è il confine tra l’utilizzo di ChatGPT per migliorare la tua scrittura e l’utilizzo di un chatbot per lasciare che il bot faccia la maggior parte del lavoro? “Penso che sia importante che se le persone usano ChatGPT, diffondano la voce”, afferma Gao. Ma è un caso molto interessante. Sono molto curioso di vedere come si svolgerà la discussione sui limiti di ChatGPT.”

We will be happy to hear your thoughts

Leave a reply

TGcomnews24