3.6 C
Rome
domenica, Novembre 24, 2024
- Pubblicità -
Scienze & AmbienteTetris rivela come le persone reagiscono all'intelligenza artificiale ingiusta

Tetris rivela come le persone reagiscono all’intelligenza artificiale ingiusta

INFORMATIVA: Alcuni degli articoli che pubblichiamo provengono da fonti non in lingua italiana e vengono tradotti automaticamente per facilitarne la lettura. Se vedete che non corrispondono o non sono scritti bene, potete sempre fare riferimento all'articolo originale, il cui link è solitamente in fondo all'articolo. Grazie per la vostra comprensione.


Un esperimento in cui due persone giocano a versione modificata di Tetris – il videogioco di impilamento di blocchi di 40 anni – ha rivelato che i giocatori che ottengono meno turni percepiscono l’altro giocatore come meno simpatico, indipendentemente dal fatto che una persona o un algoritmo allochi i turni.

Tetris classico per gameboy - foto illustrativa.

Tetris classico per gameboy – foto illustrativa. Credito immagine: Nik tramite Unsplash, licenza gratuita

“Ci aspettavamo che le persone che lavorano in una squadra si sarebbero preoccupate di essere trattate ingiustamente da un altro essere umano o da un’intelligenza artificiale”, ha affermato Malte Jungprofessore associato di scienze dell’informazione presso il Cornell Ann S. Bowers College of Computing and Information Science, il cui gruppo ha condotto lo studio.

La maggior parte degli studi sull’equità algoritmica si concentra sull’algoritmo o sulla decisione stessa, ma Jung ha cercato di esplorare le relazioni tra le persone interessate dalle decisioni.

“Stiamo iniziando a vedere molte situazioni in cui l’IA prende decisioni su come distribuire le risorse tra le persone”, ha affermato Jung.

“Vogliamo capire come ciò influenzi il modo in cui le persone si percepiscono e si comportano l’una verso l’altra. Vediamo sempre più prove che le macchine interferiscono con il modo in cui interagiamo tra loro.

Intelligenza artificiale - impressione artistica.  Credito immagine: Gerd Altmann tramite PublicDomainPictures.net

Intelligenza artificiale – impressione artistica. Credito immagine: Gerd Altmann tramite PublicDomainPictures.net

Houston B. Claure, MS ’20, Ph.D. ’23, è primo autore di “Le conseguenze sociali del comportamento di allocazione della macchina: equità, percezioni interpersonali e prestazioni”, pubblicato su Computers in Human Behavior. Claure ha conseguito il master e il dottorato in ingegneria meccanica, laureandosi in informatica.

Jung e Claure hanno condotto uno studio precedente in cui un robot ha scelto a quale persona dare un blocco e hanno studiato le reazioni di ogni individuo alle decisioni di assegnazione della macchina.

“Abbiamo notato che ogni volta che il robot sembrava preferire una persona, l’altra si arrabbiava”, ha detto Jung, direttore del Robot nel laboratorio di gruppi.

Carta da gioco Tetris - foto illustrativa.

Scheda gioco Tetris – foto illustrativa. Credito immagine: Terry Lee tramite Unsplash, licenza gratuita

“Volevamo studiarlo ulteriormente, perché pensavamo che, poiché le macchine che prendono decisioni diventano sempre più parte del mondo – che si tratti di un robot o di un algoritmo – come si sente una persona?”

A causa del tempo necessario per condurre esperimenti e analizzare i dati utilizzando un robot fisico, Jung e Claure hanno ritenuto che esistesse un modo migliore e più efficiente per studiare questo effetto. Fu allora che Tetris, originariamente pubblicato nel 1984 e da tempo uno strumento utile per i ricercatori che cercavano di ottenere informazioni fondamentali sulla cognizione umana, il comportamento sociale e la memoria, entrò in scena.

“Quando si tratta di allocare le risorse”, ha detto Claure, “si scopre che Tetris non è solo un gioco: è un potente strumento per ottenere informazioni sulla complessa relazione tra allocazione delle risorse, prestazioni e dinamiche sociali”.

Un giocatore - impressione artistica.

Un giocatore – impressione artistica. Credito immagine: Pixabay, licenza gratuita

Utilizzando un software open source, Claure, ora ricercatrice post-dottorato presso la Yale University, ha sviluppato una versione per due giocatori di Tetris, in cui i giocatori manipolano i blocchi geometrici che cadono per impilarli senza lasciare spazi vuoti prima che i blocchi si accumulino nella parte superiore dello schermo. .

La versione di Claure, Co-Tetrisconsente a due persone (una alla volta) di lavorare insieme per completare ogni round.

Un “allocatore” – umano o AI, che è stato trasmesso ai giocatori – determina quale giocatore di Tetris svolge ogni turno. Jung e Claure hanno ideato il loro esperimento in modo che i giocatori avessero il 90% dei turni (la condizione “più”), il 10% (“meno”) o il 50% (“uguale”).

I ricercatori hanno scoperto, prevedibilmente, che coloro che hanno ricevuto meno turni erano profondamente consapevoli che il loro partner ne ha ottenuti molti di più. Ma sono stati sorpresi di scoprire che i sentimenti al riguardo erano in gran parte gli stessi indipendentemente dal fatto che un essere umano o un’intelligenza artificiale stesse effettuando l’allocazione.

Una scoperta particolarmente interessante: quando l’assegnazione è stata effettuata da un’intelligenza artificiale, il giocatore di Tetris che ha ricevuto più turni ha visto il proprio partner come meno dominante, ma quando l’assegnazione è stata effettuata da un essere umano, le percezioni del dominio non sono state influenzate.

L’effetto di queste decisioni è ciò che i ricercatori hanno definito “comportamento di allocazione della macchina” – simile al fenomeno consolidato del “comportamento di allocazione delle risorse”, il comportamento osservabile che le persone esibiscono in base alle decisioni di allocazione. Jung ha affermato che il comportamento di allocazione della macchina è “il concetto che esiste questo comportamento unico che risulta da una macchina che prende una decisione su come qualcosa viene allocato”.

I ricercatori hanno anche scoperto che l’equità non porta automaticamente a migliori prestazioni e prestazioni di gioco. Infatti, un’allocazione uguale dei turni portava, in media, a un punteggio peggiore rispetto a un’allocazione ineguale.

“Se un giocatore forte riceve la maggior parte dei blocchi”, ha detto Claure, “la squadra farà meglio. E se una persona ottiene il 90%, alla fine riuscirà a farlo meglio che se due giocatori medi dividono i blocchi.

René Kizilcecassistente professore di scienze dell’informazione (Cornell Bowers CIS) e coautore dello studio, spera che questo lavoro porti a ulteriori ricerche sugli effetti delle decisioni dell’IA sulle persone, in particolare negli scenari in cui i sistemi di intelligenza artificiale prendono decisioni continue, e non solo una -off scelte.

“Gli strumenti di intelligenza artificiale come ChatGPT sono sempre più integrati nella nostra vita quotidiana, dove le persone sviluppano relazioni con questi strumenti nel tempo”, ha affermato Kizilcec, “come, ad esempio, insegnanti, studenti e genitori pensano alla competenza e all’equità di un tutor di intelligenza artificiale in base alle loro interazioni nel corso di settimane e mesi è molto importante.

Fonte: Università Cornell




Da un’altra testata giornalistica. news de www.technology.org

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

- Pubblicità -
- Pubblicità -Newspaper WordPress Theme

Contenuti esclusivi

Iscriviti oggi

OTTENERE L'ACCESSO ESCLUSIVO E COMPLETO AI CONTENUTI PREMIUM

SOSTENERE IL GIORNALISMO NON PROFIT

Get unlimited access to our EXCLUSIVE Content and our archive of subscriber stories.

- Pubblicità -Newspaper WordPress Theme

Articoli più recenti

Altri articoli

- Pubblicità -Newspaper WordPress Theme

INFORMATIVA: Alcuni degli articoli che pubblichiamo provengono da fonti non in lingua italiana e vengono tradotti automaticamente per facilitarne la lettura. Se vedete che non corrispondono o non sono scritti bene, potete sempre fare riferimento all'articolo originale, il cui link è solitamente in fondo all'articolo. Grazie per la vostra comprensione.