-0.8 C
Rome
domenica, Novembre 10, 2024
- Pubblicità -
Scienze & AmbienteL'intelligenza artificiale può fornire terapia? Esaminando i pro e i contro

L’intelligenza artificiale può fornire terapia? Esaminando i pro e i contro

INFORMATIVA: Alcuni degli articoli che pubblichiamo provengono da fonti non in lingua italiana e vengono tradotti automaticamente per facilitarne la lettura. Se vedete che non corrispondono o non sono scritti bene, potete sempre fare riferimento all'articolo originale, il cui link è solitamente in fondo all'articolo. Grazie per la vostra comprensione.


All’inizio di quest’anno, la National Eating Disorder Association con sede negli Stati Uniti ha chiuso il suo chatbot basato sull’intelligenza artificiale dopo aver fornito consigli non sicuri alle persone in cerca di aiuto.

Il chatbot, chiamato “Tessa”, ha incaricato le persone con disturbi alimentari di ridurre notevolmente il loro apporto calorico giornaliero, secondo i reclami.

Intelligenza artificiale, automazione - resa artistica illustrativa.

Intelligenza artificiale, automazione – resa artistica illustrativa. Credito immagine: Freepik, licenza gratuita

“Il chatbot suggeriva ai chiamanti di provare cose che davano loro disturbi alimentari in primo luogo”, dice Rachel Katzun dottorando presso la Facoltà di Lettere e Scienze Istituto per la storia e la filosofia della scienza e della tecnologia.

La sua ricerca si concentra sulla bioetica, nonché sulla filosofia della medicina e della psichiatria, compreso un interesse per l’etica dell’IA.

Katz è nelle prime fasi della sua ricerca di dottorato che esamina i pro ei contro della psicoterapia facilitata dall’IA, in particolare la terapia fornita dall’IA che non coinvolge mai un medico.

Il suo lavoro ha ricevuto copertura dalle principali testate giornalistiche quest’estate, in seguito alla presentazione della sua ricerca al Congresso 2023 del Società canadese per la storia e la filosofia della scienza alla York University a maggio.

Rachel Katz crede che la psicoterapia fornita dall'intelligenza artificiale possa essere uno strumento utile in determinate situazioni.

Rachel Katz crede che la psicoterapia fornita dall’intelligenza artificiale possa essere uno strumento utile in determinate situazioni. Foto per gentile concessione di Rachel Katz

“Ci sono diversi modi in cui l’IA è entrata a far parte della psicoterapia”, afferma Katz. “Mi sto concentrando sull’aspetto dell’interazione con il paziente. Sto guardando app… che non richiedono l’interazione con un terapista umano.

“Non sono contrario all’uso della terapia AI chatbot – sono uno strumento utile, ma devono essere capiti e regolati correttamente prima che vadano fuori controllo. Al momento, non disponiamo di regole e linee guida sufficienti per il tipo di cose per cui questi chatbot potrebbero essere utili”.

Katz crede che la differenza tra un chatbot di intelligenza artificiale e un terapista umano sia la fiducia, al contrario della dipendenza.

“Quando abbiamo un buon rapporto con un terapeuta umano, abbiamo formato un rapporto basato sulla fiducia costruito sulla buona volontà e sulla vulnerabilità”, dice.

Al contrario, Katz descrive la relazione di dipendenza con la terapia dell’IA come “parlare con un muro affettuoso”.

“Puoi avere questa esperienza di supporto e utile lavorando con un terapista di intelligenza artificiale”, afferma Katz. “Non c’è vulnerabilità, ma puoi fare affidamento su di essa per essere lì.”

Ma nota che c’è qualcosa di fondamentalmente diverso nelle relazioni da uomo a uomo – e parte di ciò deriva dal fatto che un terapeuta può commettere errori.

“Potresti avere un ottimo rapporto di lavoro con un terapista, e poi ti suggeriscono qualcosa che non funziona per te”, dice Katz. “Oppure potrebbero dire: ‘Ecco come ho interpretato quello che mi hai detto’ e tu li correggi”.

Ciò potrebbe diventare problematico con una diagnosi errata o maltrattamento di un problema di salute mentale.

“Ma parte di quella capacità di incasinare rappresenta quello ‘elemento umano speciale’ che sto esplorando – ed è una delle cose che rende [us] fidati di qualcuno in generale “, dice. “È qualcosa che perdi completamente con un terapista di intelligenza artificiale.”

Quell’elemento di vulnerabilità può fluire in entrambe le direzioni: un terapeuta umano può rendersi vulnerabile offrendo approfondimenti sulla propria vita personale, che possono anche rafforzare un legame con un paziente.

Katz ha in programma di indagare ulteriormente su cosa rende speciale quella relazione umana, qualcosa che sente di non aver ancora scoperto del tutto.

“Questa è la grande domanda filosofica alla base dell’intero progetto”, afferma.

Katz si chiede anche se i chatbot AI siano efficaci quando si affrontano le crisi. Ad esempio, i chatbot non sono considerati molto efficaci quando assistono qualcuno che ha tendenze suicide.

“Ti diranno solo di chiamare il 911 o qualche altro tipo di servizio di emergenza”, dice Katz. “Non è sempre una buona soluzione per le persone che potrebbero essere molto angosciate.”

Nonostante le sfide, Katz ritiene che l’IA abbia alcuni vantaggi.

Ad esempio, le linee di crisi sono spesso gestite da volontari e tale lavoro può richiedere un pesante tributo emotivo.

“Si potrebbe sostenere che trasformare quei sistemi di chiamata in intelligenza artificiale risparmia il carico emotivo dei volontari”, afferma Katz.

Anche la distanza e l’accessibilità potrebbero essere un fattore: se una persona che vive in remoto deve guidare per ore per un appuntamento, l’intelligenza artificiale potrebbe essere un’opzione più conveniente.

“O se sei una persona che lavora in orari strani, diciamo che lavori di notte e hai bisogno di vedere un terapista, anche questa è una situazione difficile che potrebbe essere più adatta all’IA”, dice Katz.

Ma il più grande fascino dell’IA potrebbe essere il fatto che è impersonale.

Alcune persone, in particolare quelle che non hanno mai preso parte alla terapia prima, potrebbero sentirsi più a loro agio a chattare con l’intelligenza artificiale piuttosto che con una persona quando si tratta di condividere i propri problemi e problemi.

“Stavo tenendo un corso e ho chiesto ai miei studenti: ‘Come ti sentiresti ad avere un terapista?’ Un numero scioccante di loro ha dichiarato di essere ansioso di parlare prima con un terapista di intelligenza artificiale”, afferma Katz.

“Erano nervosi all’idea di esprimere emozioni difficili a un altro essere umano. Preferivano avere qualcosa che potesse ascoltare ma fosse incapace di giudizio umano. Idealmente, un terapista non giudica, ma qualcuno che cerca una risorsa per la prima volta potrebbe non esserne consapevole.

Mentre Katz continua la sua ricerca, vede che la psicoterapia basata sull’intelligenza artificiale funziona bene in determinate situazioni, con le linee guida e le esclusioni di responsabilità adeguate.

“In definitiva, voglio sostenere la scelta del paziente”, afferma. “Non vorrei negare a un paziente la possibilità di scegliere quale intervento ritenga abbia più senso per lui. Se il tipo di terapia o il metodo di erogazione della terapia non funziona per il paziente, il trattamento non sarà efficace.

Mentre approfondisce l’argomento, Katz vede applicazioni nel mondo reale per il suo lavoro.

“L’obiettivo è fare alcune indagini filosofiche e, si spera, trovare alcune risposte che siano filosoficamente interessanti e che possano anche aiutare a informare lo sviluppo delle politiche in questo settore”.

Fonte: Università di Toronto



Da un’altra testata giornalistica. news de www.technology.org

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

- Pubblicità -
- Pubblicità -Newspaper WordPress Theme

Contenuti esclusivi

Iscriviti oggi

OTTENERE L'ACCESSO ESCLUSIVO E COMPLETO AI CONTENUTI PREMIUM

SOSTENERE IL GIORNALISMO NON PROFIT

Get unlimited access to our EXCLUSIVE Content and our archive of subscriber stories.

- Pubblicità -Newspaper WordPress Theme

Articoli più recenti

Altri articoli

- Pubblicità -Newspaper WordPress Theme

INFORMATIVA: Alcuni degli articoli che pubblichiamo provengono da fonti non in lingua italiana e vengono tradotti automaticamente per facilitarne la lettura. Se vedete che non corrispondono o non sono scritti bene, potete sempre fare riferimento all'articolo originale, il cui link è solitamente in fondo all'articolo. Grazie per la vostra comprensione.