Incitamento all’odio e disinformazione su mezzi di comunicazione sociale può avere un impatto devastante, in particolare sulle comunità emarginate. Ma cosa succede se usiamo l’intelligenza artificiale per combattere tali contenuti dannosi?
Questo è l’obiettivo di un team di ricercatori dell’Università di Toronto a cui è stato assegnato un Concessione del catalizzatore dal Istituto di scienze dei dati (DSI) per sviluppare un sistema di intelligenza artificiale per affrontare l’emarginazione delle comunità nei sistemi incentrati sui dati, comprese le piattaforme di social media come Twitter.
Il gruppo di ricerca collaborativo è composto da Syed Ishtiaque Ahmedprofessore assistente presso il dipartimento di informatica della Facoltà di Lettere e Scienze; Shohini Bhattasali, assistente professore presso il dipartimento di studi linguistici presso la U of T Scarborough; E Shion Guharicercatore interincaricato tra il dipartimento di informatica e la Facoltà di Informatica e il direttore del Laboratorio di scienza dei dati incentrato sull’uomo.
Il loro obiettivo è rendere la moderazione dei contenuti più inclusiva coinvolgendo le comunità colpite da contenuti dannosi o odiosi sui social media. Il progetto è una collaborazione con due organizzazioni no-profit canadesi: il Chinese Canadian National Council for Social Justice (CCNC-SJ) e l’Islam Unraveled Anti-Racism Initiative.
I gruppi storicamente emarginati sono i più colpiti dai fallimenti nella moderazione dei contenuti dei social media in quanto hanno una rappresentanza inferiore tra i moderatori umani e i loro dati sono meno disponibili per gli algoritmi, spiega Ahmed.
“Mentre la maggior parte delle piattaforme di social media ha adottato misure per moderare e identificare i contenuti dannosi e limitarne la diffusione, i moderatori umani e gli algoritmi di intelligenza artificiale spesso non riescono a identificarli correttamente e a intraprendere azioni adeguate”, afferma.
Il team prevede di progettare e valutare il sistema proposto per affrontare potenziali post islamofobi e sinofobi su Twitter.
Il sistema di intelligenza artificiale mira a democratizzare la moderazione dei contenuti dei social media includendo voci diverse in due modi principali: in primo luogo, consentendo agli utenti di contestare una decisione, il processo di moderazione diventa più trasparente e affidabile per gli utenti che sono vittime di danni online.
In secondo luogo, prendendo l’input dell’utente e riaddestrando i modelli di machine learning (ML), il sistema garantisce che le posizioni di contestazione degli utenti si riflettano sul sistema di pre-screening ML.
“L’annotazione dei dati diventa difficile quando gli annotatori sono divisi nelle loro opinioni. Risolvere questo problema in modo democratico richiede il coinvolgimento di diverse comunità, che attualmente non è comune nelle pratiche di data science”, osserva Ahmed.
“Questo progetto affronta il problema progettando, sviluppando e valutando un quadro pluralistico di giustificazione e contestazione nella scienza dei dati mentre si lavora con due comunità storicamente emarginate a Toronto”.
Il sistema di intelligenza artificiale integrerà le conoscenze e le esperienze dei membri della comunità nel processo di riduzione dei contenuti odiosi diretti alle loro comunità.
Il team sta utilizzando una metodologia partecipativa di cura dei dati che li aiuta a conoscere la caratterizzazione dei diversi tipi di contenuti dannosi che interessano una comunità e include i membri della comunità corrispondente nel processo di etichettatura dei dati per garantire la qualità dei dati.
“Siamo grati a DSI per il suo generoso sostegno a questo progetto. La comunità DSI ci ha anche aiutato a entrare in contatto con persone che conducono ricerche simili e imparare da loro”, afferma Ahmed, aggiungendo che si prevede che la ricerca del suo team avrà un impatto di vasta portata al di là delle due comunità su cui è attualmente focalizzata.
Fonte: Università di Toronto
Da un’altra testata giornalistica. news de www.technology.org