Il terapista dell'intelligenza artificiale è già pienamente impegnato nell'assistenza alla salute mentale in Inghilterra: “L'obiettivo è aiutare davvero, non sostituire”

L’intelligenza artificiale può aiutare gli psicoterapeuti a fare diagnosi più rapide e migliori? In Inghilterra la pensano così: lì gli operatori sanitari e i pazienti utilizzano software di intelligenza artificiale. Ma un filosofo della tecnologia avverte: “L’intelligenza artificiale non ti capisce”.

Le applicazioni di intelligenza artificiale che aiutano le persone a migliorare la propria salute mentale esistono da tempo, con vari gradi di successo. Tuttavia, il sistema sanitario inglese (NHS) ha ora abbracciato l’intelligenza artificiale e sta utilizzando ampiamente la tecnologia nella cura della salute mentale.

Diagnosi e piano di trattamento

Il programma informatico Limbic viene utilizzato lì per supportare gli psicoterapeuti. Ancor prima che scambino una parola con il paziente, il software può prevedere la diagnosi e sviluppare un potenziale piano di trattamento.

Il limbico funziona sulla base dell'intelligenza artificiale. Il software è stato addestrato utilizzando molti dati: sono state utilizzate le informazioni di centinaia di migliaia di pazienti e le loro diagnosi, ma sono stati anche combinati vari studi bibliografici.

Vedi anche

Non impermeabile

“Il nostro obiettivo è aiutare davvero, non sostituire”, afferma Sebastian de Vries. È uno dei fondatori della startup dietro il software. “Come puoi assicurarti che il terapeuta possa prendere una decisione più rapidamente e come puoi assicurarti che quella decisione sia corretta più spesso?”

De Vries ammette che non tutte le diagnosi fornite dal programma possono essere corrette. Il sistema di intelligenza artificiale non è impermeabile, così come non lo è l’attuale modo di lavorare, secondo lui: “Anche i terapisti non sempre sono d’accordo sulla diagnosi o sul piano di trattamento”.

Poco tempo

Aggiunge che alcune diagnosi ora vengono perse. “Nel servizio sanitario nazionale in Inghilterra, si vede che la depressione e i disturbi d'ansia sono sovradiagnosticati, ma specifici disturbi d'ansia come il disturbo da stress post-traumatico sono sottodiagnosticati.”

Secondo de Vries questa è una “risultata diretta” del fatto che molti terapeuti non hanno abbastanza tempo. Questo è uno dei motivi per cui il Servizio Sanitario Nazionale si sta concentrando su nuove tecnologie come questa. La chirurgia limbica è ora utilizzata in quasi la metà delle cliniche di salute mentale in Inghilterra.

Vedi anche

In “terapia” con un chatbot

Oltre all’aiuto dei terapisti, i pazienti possono anche parlare con un “terapista” basato sull’intelligenza artificiale tramite il chatbot del software. Questo ha lo scopo di supportarli tra le sessioni con un vero terapista.

Secondo de Vries, questa caratteristica ha successo: “Le persone che hanno avuto la prima seduta con Limbic hanno maggiori probabilità di partecipare alle sedute successive perché hanno un’esperienza migliore e perché sentono che il terapeuta ha risolto meglio il loro problema”.

“L'intelligenza artificiale non ti capisce”

Shannon Valor è professoressa all'Università di Edimburgo e filosofa della tecnologia. È contraria al modo in cui l’intelligenza artificiale può essere utilizzata in questo modo nell’assistenza sanitaria (mentale). “Non penso che sia possibile per un sistema di intelligenza artificiale, date le limitazioni che deve affrontare, presentarsi come un terapista comprensivo”.

“Questi sistemi non ti capiscono e non sono altro che modelli statistici”, sottolinea “Puoi commettere errori che un medico esperto non farebbe mai”.

Vedi anche

Dubbi sul successo

Inoltre, Valor dubita del successo di Lembeck. La prova fornita dalla startup si basa sui propri studi e ciò non è possibile, afferma il filosofo della tecnologia.

Non capisce perché il servizio sanitario nazionale dovrebbe scegliere questa tecnologia per qualcosa di così importante come la cura della salute mentale. “Questa decisione deve basarsi su prove mediche e cliniche e non su propaganda o promesse per le quali non esiste prova”.

Vigilanza più rigorosa?

Valor sottolinea che si tratta di un gruppo vulnerabile di pazienti. Occorre quindi cautela, ma il filosofo della tecnologia ritiene che avvenga esattamente il contrario. “Queste tecnologie vengono spesso utilizzate per la prima volta tra i gruppi più vulnerabili della società”.

Ritiene che dovrebbe esserci un controllo più rigoroso sulle applicazioni dell’intelligenza artificiale con “affermazioni terapeutiche”, soprattutto per i gruppi vulnerabili. “C’è il grande pericolo di arrivare a risultati soggettivi o errati”, avverte recentemente il filosofo della tecnologia.

Il terapista dell'intelligenza artificiale è già pienamente impegnato nell'assistenza alla salute mentale in Gran Bretagna: “L'obiettivo è aiutare davvero, non sostituire”

chiedere? Chiedi loro!

Hai qualche domanda o vorresti delle risposte? Mandaci un messaggio qui nella chat. Ogni giovedì nella newsletter Get Involved ti diciamo cosa stiamo facendo con tutte le risposte. Lo vuoi nella tua email? Allora registrati qui.

"Fanatico della musica. Risolutore di problemi professionale. Lettore. Ninja televisivo pluripremiato."

We will be happy to hear your thoughts

Leave a reply

TGcomnews24