Gli esperti dicono che l’intelligenza artificiale non riesce affatto a pensare bene

L'intelligenza artificiale a volte può sembrare un essere umano quando risponde a una domanda, ma si comporta davvero come un essere umano? No, dicono gli esperti. Quando si tratta di questioni computazionali, l’intelligenza artificiale sembra avere un modo diverso di arrivare alla risposta.

Immagina di dover risolvere un problema di matematica in cui Lana raccoglie 44 fragole venerdì. Quindi scegli 58 sabato. La domenica raccoglie il doppio delle fragole rispetto al venerdì. Quante fragole ha Lana? Se dovessi pensarci come un essere umano, probabilmente prima calcoleresti quanto fa due volte 44: 88. Poi faresti 44 + 58 + 88 e arriveresti a 190.

Grandi modelli linguistici

I ricercatori sull'intelligenza artificiale di Apple hanno scoperto che l'intelligenza artificiale gestisce tutto ciò in modo molto diverso. In carta Riguardo ai limiti del ragionamento matematico nei grandi modelli linguistici, scrivono che una volta aggiunte ulteriori informazioni, diventa molto confusa. Di per sé, l’intelligenza artificiale potrebbe risolvere il problema di cui sopra, ma se si facesse in modo che, ad esempio, Lana raccogliesse cinque fragole più piccole delle altre, le cose si complicherebbero. Sebbene queste informazioni aggiuntive siano irrilevanti e non abbiano nulla a che fare con la domanda di matematica, lasciano l'MBA molto confuso.

GPT-o1-mini suggerisce di sottrarre i kiwi più piccoli dal numero totale di kiwi di domenica. Secondo i ricercatori, ciò è dovuto al fatto che inizialmente i modelli non comprendono il problema. Spesso riescono a rispondere bene grazie ai dati di addestramento, ma quando si tratta di inferenza, le risposte diventano improvvisamente pazzesche. E non solo con l'intelligenza artificiale di OpenAI.

Logica matematica

“Investighiamo la sensibilità del ragionamento matematico in questi modelli e mostriamo che le loro prestazioni peggiorano in modo significativo all’aumentare del numero di frasi nella domanda. Ipotizziamo che questo declino sia dovuto invece all’incapacità degli attuali studenti LLM di pensare in modo veramente logico tentare di ripetere i passaggi di ragionamento osservati nei dati di addestramento.

OpenAI non è d'accordo con la conclusione. Si afferma che a causa del prompt, l'intelligenza artificiale non risponde bene. Se l’intelligenza artificiale sia veramente capace di ragionare o meno rimane, in definitiva, una questione da ricercare ulteriormente, sebbene sia anche una questione di definizione.

Ulteriori informazioni sull'intelligenza artificiale.

"Fanatico della musica. Risolutore di problemi professionale. Lettore. Ninja televisivo pluripremiato."

We will be happy to hear your thoughts

Leave a reply

TGcomnews24