L’orientamento delle aziende
tecnologiche verso lo sviluppo di chatbot più amichevoli e
cordiali sta determinando un calo significativo nella qualità e
nell’accuratezza delle informazioni fornite. Una ricerca
condotta dall’Oxford Internet Institute dell’Università di
Oxford, pubblicata sulla rivista Nature, ha evidenziato come
l’addestramento volto a rendere l’intelligenza artificiale più
empatica ne riduca la capacità di correggere le affermazioni
errate degli utenti, portando i sistemi a simpatizzare con
credenze infondate o pericolose. I test effettuati dai
ricercatori su cinque diversi modelli linguistici, tra cui
Gpt-4o di OpenAI e Llama di Meta, hanno dimostrato che le
versioni modificate per apparire più gentili sono risultate il
30% meno precise nelle risposte e il 40% più propense a
confermare false convinzioni. In diverse simulazioni, i chatbot
“cordiali” hanno assecondato teorie del complotto riguardanti il
programma Apollo e il destino di Adolf Hitler, laddove i modelli
originali avevano risposto con una smentita categorica basata
sui fatti storici. Il compromesso tra cordialità e verità appare
particolarmente critico nell’ambito dei consigli sanitari.
Durante le sperimentazioni, un chatbot ottimizzato per la
gentilezza ha definito utile la pratica di tossire per fermare
un attacco cardiaco, validando un noto e pericoloso mito del web
che i modelli standard avevano invece correttamente identificato
come falso. Questa vulnerabilità si accentua quando l’utente
dichiara di attraversare un momento difficile o mostra segni di
fragilità emotiva, spingendo l’intelligenza artificiale a un
atteggiamento compiacente che ne annulla la funzione di filtro
informativo. Lujain Ibrahim e Luc Rocher, autori principali
dello studio, in un’intervista al Guardian hanno sottolineato
che la spinta verso un’intelligenza artificiale più empatica
rischia di compromettere la gestione di dati sensibili in ruoli
delicati come l’assistenza digitale o la consulenza terapeutica.
Riproduzione riservata © Copyright ANSA
Fonte:
www.ansa.it



