13.7 C
Rome
giovedì, Marzo 12, 2026
- Pubblicità -
Scienze & AmbienteLo strumento di ricerca sui social media può ridurre la polarizzazione e...

Lo strumento di ricerca sui social media può ridurre la polarizzazione e potrebbe anche portare a un maggiore controllo da parte degli utenti sugli algoritmi

INFORMATIVA: Alcuni degli articoli che pubblichiamo provengono da fonti non in lingua italiana e vengono tradotti automaticamente per facilitarne la lettura. Se vedete che non corrispondono o non sono scritti bene, potete sempre fare riferimento all'articolo originale, il cui link è solitamente in fondo all'articolo. Grazie per la vostra comprensione.

[ad_1]

Un nuovo strumento mostra che è possibile attenuare il rancore partigiano in un feed X, senza rimuovere post politici e senza la collaborazione diretta della piattaforma.

Lo studio, condotto da ricercatori dell’Università di Washington, della Stanford University e della Northeastern University, indica anche che un giorno potrebbe essere possibile consentire agli utenti di assumere il controllo dei propri algoritmi sui social media.

I ricercatori hanno creato uno strumento fluido e basato sul web che riordina i contenuti per spostare i post più in basso nel feed di un utente quando contengono atteggiamenti antidemocratici e animosità di parte, come il sostegno alla violenza o l’incarcerazione dei sostenitori del partito avversario.

Ricercatori pubblicato i loro risultati nella scienza.

“Gli algoritmi dei social media dirigono la nostra attenzione e influenzano i nostri stati d’animo e atteggiamenti, ma fino ad ora solo le piattaforme avevano il potere di cambiare la progettazione dei loro algoritmi e studiarne gli effetti”, ha affermato il co-autore principale Martin Saveskiun assistente professore della UW presso la Information School. “Il nostro strumento offre questa capacità ai ricercatori esterni”.

In un esperimento, circa 1.200 partecipanti volontari hanno utilizzato lo strumento per 10 giorni durante le elezioni del 2024. I partecipanti a cui sono stati retrocessi i contenuti antidemocratici hanno mostrato opinioni più positive nei confronti del partito avversario. L’effetto è stato anche bipartisan, valendo per le persone che si identificavano come liberali o conservatrici.

“Studi precedenti erano intervenuti a livello degli utenti o delle funzionalità della piattaforma, ad esempio declassando i contenuti di utenti con opinioni politiche simili o passando a un feed cronologico. Ma ci siamo basati sui recenti progressi nell’intelligenza artificiale per sviluppare un intervento più sfumato che riclassifichi i contenuti che potrebbero polarizzarsi”, ha affermato Saveski.

Per questo studio, il team si è basato su precedenti ricerche sociologiche identificando categorie di atteggiamenti antidemocratici e animosità di parte che possono rappresentare una minaccia per la democrazia. Oltre a sostenere misure estreme contro la parte avversaria, questi atteggiamenti includono dichiarazioni che mostrano il rifiuto di qualsiasi cooperazione bipartisan, lo scetticismo nei confronti dei fatti che favoriscono le opinioni dell’altra parte e la volontà di rinunciare ai principi democratici per aiutare la parte favorita.

I ricercatori hanno affrontato il problema da una serie di discipline tra cui scienza dell’informazione, informatica, psicologia e comunicazione.

Il team ha creato uno strumento di estensione web abbinato a un modello linguistico di intelligenza artificiale che analizza i post alla ricerca di questi tipi di sentimenti partigiani antidemocratici ed estremamente negativi. Lo strumento riordina quindi i post sul feed X dell’utente in pochi secondi.

Quindi, in esperimenti separati, i ricercatori hanno chiesto a un gruppo di partecipanti di visualizzare i propri feed con questo tipo di contenuti ridimensionati o migliorati per sette giorni e hanno confrontato le loro reazioni con un gruppo di controllo. Nessun post è stato rimosso, ma i post politici più incendiari sono apparsi più in basso o più in alto nei flussi di contenuti.

L’impatto sulla polarizzazione è stato chiaro.

“Quando i partecipanti sono stati esposti a meno di questi contenuti, si sono sentiti più affettuosi nei confronti delle persone del partito avversario”, ha affermato il co-autore principale Tiziano Piccardiprofessore assistente alla Johns Hopkins University. “Quando erano esposti a qualcosa di più, sentivano più freddo.”

Prima e dopo l’esperimento, i ricercatori hanno intervistato i partecipanti sui loro sentimenti verso la parte avversaria su una scala da 1 a 100. Gli atteggiamenti tra i partecipanti a cui erano stati declassati i contenuti negativi sono migliorati in media di due punti – equivalente al cambiamento stimato negli atteggiamenti che si è verificato tra la popolazione generale degli Stati Uniti in un periodo di tre anni.

I ricercatori stanno ora esaminando altri interventi che utilizzano un metodo simile, compresi quelli che mirano a migliorare la salute mentale. Il team ha anche reso disponibile il codice dell’attuale strumento, in modo che altri ricercatori e sviluppatori possano utilizzarlo per creare i propri sistemi di classificazione indipendenti dall’algoritmo di una piattaforma di social media.

“In questo lavoro ci siamo concentrati sulla polarizzazione affettiva, ma il nostro quadro può essere applicato per migliorare altri risultati, tra cui il benessere, la salute mentale e l’impegno civico”, ha affermato Saveski. “Ci auguriamo che altri ricercatori utilizzino il nostro strumento per esplorare il vasto spazio di progettazione di potenziali algoritmi di feed e articolare visioni alternative su come potrebbero funzionare le piattaforme di social media”.

Fonte: Università di Washington


[ad_2]

Da un’altra testata giornalistica. news de www.technology.org

- Pubblicità -
- Pubblicità -Newspaper WordPress Theme

Contenuti esclusivi

- Pubblicità -Newspaper WordPress Theme

Articoli più recenti

Altri articoli

- Pubblicità -Newspaper WordPress Theme

INFORMATIVA: Alcuni degli articoli che pubblichiamo provengono da fonti non in lingua italiana e vengono tradotti automaticamente per facilitarne la lettura. Se vedete che non corrispondono o non sono scritti bene, potete sempre fare riferimento all'articolo originale, il cui link è solitamente in fondo all'articolo. Grazie per la vostra comprensione.