-3.1 C
Rome
lunedì, Novembre 25, 2024
- Pubblicità -
Scienze & AmbienteUmani e robot: un nuovo modello spiega un nuovo tipo di interazioni...

Umani e robot: un nuovo modello spiega un nuovo tipo di interazioni sociali

INFORMATIVA: Alcuni degli articoli che pubblichiamo provengono da fonti non in lingua italiana e vengono tradotti automaticamente per facilitarne la lettura. Se vedete che non corrispondono o non sono scritti bene, potete sempre fare riferimento all'articolo originale, il cui link è solitamente in fondo all'articolo. Grazie per la vostra comprensione.


Quando le persone incontrano robot sociali, tendono a trattarli sia come macchine che come personaggi. Uno psicologo di Stanford e il suo collaboratore spiegano perché in un articolo molto discusso.

Barack Obama guarda Asimo, un robot realizzato da Honda.  I ricercatori stanno ancora discutendo sul perché rispondiamo ai robot nel modo in cui lo facciamo e come cambierà in futuro, con l'avanzare della tecnologia robotica.

Barack Obama guarda Asimo, un robot realizzato da Honda. I ricercatori stanno ancora discutendo sul perché rispondiamo ai robot nel modo in cui lo facciamo e come cambierà in futuro, con l’avanzare della tecnologia robotica. Credito immagine: foto del Dipartimento di Stato di William Ng/Public Domain

Il piccolo dinosauro robot sbatte le palpebre i suoi grandi occhi azzurri e allunga il collo. Inclina la testa verso un essere umano, che risponde con una pacca. Il dinosauro chiude gli occhi in apparente appagamento. Ma quando improvvisamente si blocca, l’umano lo capovolge per controllarne le batterie.

Perché rispondiamo ai robot sociali nel modo in cui lo facciamo – a volte trattandoli come esseri reali, altre volte riconoscendo che sono macchinari – è la questione centrale della nuova ricerca dello psicologo di Stanford Herbert ClarkAlbert Ray Lang Professore di Psicologia, Emerito, nel Scuola di Lettere e Scienzee suo collaboratore di lunga data Kerstin Fisherprofessore di interazione linguistica e tecnologica presso l’Università della Danimarca meridionale.

“È sconcertante il modo in cui le persone reagiscono socialmente a cose che sono macchine”, ha detto Fischer. “C’è molta emotività e socialità nell’interazione con un robot. Come si possono trattare queste macchine come se fossero persone viventi?

Clark e Fischer sostengono che le persone interpretano i robot sociali progettati per interagire con gli esseri umani come rappresentazioni di personaggi, simili a marionette, attori teatrali e manichini ventriloqui.

Il loro punto di vista è controverso. Clark e Fischer carta apparso di recente sulla rivista Scienze del comportamento e del cervello insieme a commenti aperti tra pari, in cui dozzine di ricercatori in più discipline in tutto il mondo hanno reagito alle loro conclusioni.

La discussione è importante in un mondo in cui gli umani incontrano sempre più robot e quei robot stanno aumentando le loro capacità. Capire come e perché le persone interagiscono socialmente con i robot potrebbe guidare il modo in cui vengono progettati i futuri robot e plasmare il modo in cui interpretiamo le risposte delle persone a quei robot.

Le basi del modello di rappresentazione

Una persona che vede la statua del David di Michelangelo sa che è un pezzo di marmo scolpito. Ma allo stesso tempo lo spettatore lo comprende come raffigurante il personaggio biblico che si prepara alla battaglia contro Golia.

Allo stesso modo, hanno affermato Clark e Fischer, le persone sono consapevoli del fatto che i robot sociali sono fatti di fili e sensori modellati per rappresentare un personaggio come un piccolo dinosauro, un cane da compagnia o un tutore o tutore umano. Ma quando le persone interagiscono con questi robot, la maggior parte li tratterà come i personaggi che rappresentano.

“Capiamo cos’è un’immagine, capiamo cos’è un disegno, capiamo cos’è un film, e quindi capiamo cos’è un robot, perché costruiamo il personaggio del robot nello stesso modo in cui costruiamo i personaggi che vediamo raffigurati in un disegno o film”, ha detto Fischer.

Clark ha detto che le persone riconoscono anche che i personaggi sono specificamente progettati per interagire con gli umani.

“Le persone capiscono che questi robot sono in definitiva responsabilità delle persone che li hanno progettati e li stanno lavorando”, ha affermato.

Questa conoscenza entra in gioco quando qualcosa va storto come un robot che condivide cattive informazioni o ferisce qualcuno. Le persone non ritengono responsabile il robot. Incolpano il proprietario o l’operatore, sottolineando nuovamente la loro comprensione dell’oggetto e del personaggio.

Un’altra vista da un collega di Stanford

Uno dei commenti che amplia il modello di rappresentazione viene da un altro ricercatore di Stanford, Byron Reevesil professore di comunicazione Paul C. Edwards presso la School of Humanities and Sciences, che studia come le persone elaborano psicologicamente personaggi e avatar dei media, inclusi i robot.

Reeves sostiene che mentre le persone a volte trattano i robot come rappresentazioni, possono anche avere risposte rapide e naturali ai robot, con il pensiero che arriva dopo – allo stesso modo in cui potresti saltare per la paura quando un dinosauro appare sullo schermo in un film, e poi ricordare a te stesso che non lo è non è reale.

“Sono le cose che pensano veramente velocemente. Voglio dire, millisecondi veloce”, ha detto Reeves. “Ora, in tutta onestà, (Clark) pensa che il suo modello di rappresentazione si applichi anche a quelle risposte rapide. Non vedo una buona corrispondenza con i loro concetti principali. La rappresentazione enfatizza parole come “apprezzamento”, “interpretazione” e “immaginazione” e sembrano più lente e ponderate. Sono una specie di risposte letterarie: “Fingerò attivamente che sia reale perché sarà divertente”. “

Clark e Fischer notano nella loro risposta ai commenti che l’immersione delle persone nel mondo della storia di un romanzo, per esempio, “è continua; non devono immergersi nuovamente con ogni nuova frase o paragrafo. Lo stesso vale per i robot sociali. Le persone non hanno bisogno di “tempo e sforzi” extra per “riflettere” ad ogni nuova fase della loro interazione con un robot”.

Sostengono che la comprensione delle raffigurazioni è immediata e veloce, e anche i bambini le capiscono fin dalla tenera età.

“Ho una nipote che ora ha sei anni, ma quando ne aveva uno e mezzo o due, era già in grado di prendere le bambole e trattarle come personaggi”, ha detto Clark.

Reeves ha affermato che è più probabile che il suo modello preveda come la tecnologia della robotica sociale progredirà in futuro.

“I dinosauri nei film sono sempre migliori, e sempre più succosi, e sempre più spaventosi”, ha detto. “Penso che anche i robot andranno lì.”

Lezioni per progettisti e interattori

Mentre gli umani possono trattare i robot sociali come persone reali o animali, la tecnologia è molto lontana dal replicare l’interazione umana reale, hanno detto Clark e Fischer.

“Ci vuole una vera abilità perché le persone comunichino in modo efficace, anche con cose semplici come le descrizioni spaziali”, ha detto Clark. “Le persone sanno esattamente come combinare descrizioni, gesti, sguardi e attenzioni reciproche nel dire alle persone dove sono le cose. Bene, fare in modo che i robot siano ugualmente abili, anche su una cosa semplice come quella, sarà davvero, davvero difficile.

Anche i robot sociali avanzati sono estremamente limitati. Ma quando le persone li interpretano come personaggi, tendono a sopravvalutare le loro capacità.

“Se hai un robot tutor di matematica, non puoi comunque lasciare tuo figlio da solo con il robot. Perché? Perché non si accorgerà quando il bambino sta soffocando, scalando il balcone o facendo qualcos’altro”, ha detto Fischer.

Questo tipo di sopravvalutazione causa anche problemi con altre tecnologie popolari ma limitate, come gli assistenti vocali e i chatbot AI. Clark ha affermato che le persone che progettano robot e tecnologie simili dovrebbero rendere i vincoli più trasparenti per gli utenti.

Clark e Fischer hanno affermato che il loro modello non solo riconosce il livello di lavoro necessario per progettare robot sociali, ma incoraggia anche una visione positiva delle persone che interagiscono con loro. Sotto il modello di rappresentazione, una persona che tratta il piccolo robot dinosauro come un animale domestico si comporta normalmente.

“Il nostro modello mostra rispetto per le persone che interagiscono con i robot in modi sociali”, ha affermato Fischer. “Non dobbiamo presumere che siano soli, irrazionali, confusi o carenti in alcun modo.”

Fonte: Università di Stanford




Da un’altra testata giornalistica. news de www.technology.org

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

- Pubblicità -
- Pubblicità -Newspaper WordPress Theme

Contenuti esclusivi

Iscriviti oggi

OTTENERE L'ACCESSO ESCLUSIVO E COMPLETO AI CONTENUTI PREMIUM

SOSTENERE IL GIORNALISMO NON PROFIT

Get unlimited access to our EXCLUSIVE Content and our archive of subscriber stories.

- Pubblicità -Newspaper WordPress Theme

Articoli più recenti

Altri articoli

- Pubblicità -Newspaper WordPress Theme

INFORMATIVA: Alcuni degli articoli che pubblichiamo provengono da fonti non in lingua italiana e vengono tradotti automaticamente per facilitarne la lettura. Se vedete che non corrispondono o non sono scritti bene, potete sempre fare riferimento all'articolo originale, il cui link è solitamente in fondo all'articolo. Grazie per la vostra comprensione.