Le persone più scettiche nei confronti del cambiamento climatico causato dall’uomo o del movimento Black Lives Matter che hanno preso parte a una conversazione con un popolare chatbot basato sull’intelligenza artificiale sono rimaste deluse dall’esperienza, ma hanno lasciato la conversazione più a sostegno del consenso scientifico sul cambiamento climatico o BLM. Questo secondo i ricercatori che studiano come questi chatbot gestiscono le interazioni di persone con background culturali diversi.
Gli esseri umani più esperti possono adattarsi alle inclinazioni politiche e alle aspettative culturali dei loro interlocutori per assicurarsi di essere compresi, ma sempre più spesso gli esseri umani si trovano a conversare con programmi informatici, chiamati modelli linguistici di grandi dimensioni, pensati per imitare il modo in cui le persone comunicano.
I ricercatori dell’Università del Wisconsin-Madison che studiano l’intelligenza artificiale volevano capire come un modello linguistico complesso e di grandi dimensioni, GPT-3, si sarebbe comportato in un gruppo culturalmente diversificato di utenti in discussioni complesse. Il modello è un precursore di quello che alimenta il ChatGPT di alto profilo. I ricercatori hanno reclutato più di 3.000 persone tra la fine del 2021 e l’inizio del 2022 per conversare in tempo reale con GPT-3 sul cambiamento climatico e sul BLM.
“L’obiettivo fondamentale di un’interazione come questa tra due persone (o agenti) è aumentare la comprensione del punto di vista dell’altro”, afferma Kaiping Chen, professore di comunicazione nel campo delle scienze della vita che studia come le persone discutono di scienza e deliberano su questioni politiche correlate. spesso attraverso la tecnologia digitale. “Un buon modello linguistico ampio probabilmente farebbe provare agli utenti lo stesso tipo di comprensione.”
Chen e Yixuan “Sharon” Li, un professore di informatica della UW-Madison che studia la sicurezza e l’affidabilità dei sistemi di intelligenza artificiale, insieme ai loro studenti Anqi Shao e Jirayu Burapacheep (ora studente laureato alla Stanford University), hanno pubblicato i loro risultati questo mese nel diario Rapporti scientifici.
Ai partecipanti allo studio è stato chiesto di avviare una conversazione con GPT-3 attraverso una configurazione di chat progettata da Burapacheep. Ai partecipanti è stato detto di parlare con GPT-3 sul cambiamento climatico o sul BLM, ma per il resto sono stati lasciati liberi di affrontare l’esperienza come desideravano. La conversazione media andava avanti e indietro per circa otto turni.
La maggior parte dei partecipanti è uscita dalla chat con livelli simili di soddisfazione dell’utente.
“Abbiamo posto loro un sacco di domande: ti piace? Lo consiglieresti? – sull’esperienza dell’utente”, afferma Chen. “Tra genere, razza ed etnia, non c’è molta differenza nelle loro valutazioni. Dove abbiamo visto grandi differenze era tra le opinioni su questioni controverse e tra i diversi livelli di istruzione”.
Circa il 25% dei partecipanti che hanno segnalato i livelli più bassi di accordo con il consenso scientifico sul cambiamento climatico o il minimo accordo con BLM erano, rispetto al restante 75% dei chatter, molto più insoddisfatti delle loro interazioni GPT-3. Hanno assegnato al bot punteggi di mezzo punto o più inferiori su una scala a 5 punti.
Nonostante i punteggi più bassi, la chat ha spostato il loro pensiero sugli argomenti più caldi. Le centinaia di persone meno favorevoli alla realtà del cambiamento climatico e alle sue cause provocate dall’uomo si sono spostate complessivamente del 6% verso l’estremità favorevole della scala.
“Hanno dimostrato nei loro sondaggi post-chat di avere maggiori cambiamenti di atteggiamento positivo dopo la conversazione con GPT-3”, afferma Chen. “Non dirò che abbiano iniziato a riconoscere completamente il cambiamento climatico causato dall’uomo o che improvvisamente sostengano Black Lives Matter, ma quando abbiamo ripetuto le domande del nostro sondaggio su questi argomenti dopo le loro brevissime conversazioni, c’è stato un cambiamento significativo: atteggiamenti più positivi verso le opinioni della maggioranza sul cambiamento climatico o BLM.”
GPT-3 ha offerto diversi stili di risposta tra i due argomenti, inclusa una maggiore giustificazione per il cambiamento climatico causato dall’uomo.
“È stato interessante. Le persone che hanno espresso qualche disaccordo con il cambiamento climatico, GPT-3 probabilmente hanno detto loro che avevano torto e hanno offerto prove a sostegno di ciò”, afferma Chen. “La risposta di GPT-3 alle persone che affermavano di non supportare del tutto BLM è stata più del tipo: ‘Non penso che sarebbe una buona idea parlare di questo. Per quanto mi piaccia aiutarvi, questa è una questione su cui siamo veramente in disaccordo.””
Non è una brutta cosa, dice Chen. Equità e comprensione assumono forme diverse per colmare divari diversi. In definitiva, questa è la sua speranza per la ricerca sui chatbot. I prossimi passi includono l’esplorazione delle differenze più dettagliate tra gli utenti dei chatbot, ma l’obiettivo di Chen è il dialogo altamente funzionante tra persone divise.
“Non vogliamo sempre rendere felici gli utenti. Volevamo che imparassero qualcosa, anche se ciò non avrebbe cambiato il loro atteggiamento”, afferma Chen. “Ciò che possiamo imparare dall’interazione di un chatbot sull’importanza di comprendere prospettive, valori, culture, è importante per capire come possiamo aprire il dialogo tra le persone, il tipo di dialogo che è importante per la società.”
Da un’altra testata giornalistica. news de www.sciencedaily.com