I ricercatori del Centro di intelligenza artificiale incentrato sull’uomo GrapheneX-UTS hanno sviluppato un sistema di intelligenza artificiale portatile e non invasivo in grado di decodificare pensieri silenziosi e trasformarli in testo.
In una prima mondiale, i ricercatori del GrapheneX-UTS Centro di intelligenza artificiale incentrato sull’uomo presso l’Università di Tecnologia di Sydney (UTS) hanno sviluppato un sistema portatile e non invasivo in grado di decodificare i pensieri silenziosi e trasformarli in testo.
La tecnologia potrebbe aiutare la comunicazione per le persone che non sono in grado di parlare a causa di malattie o infortuni, inclusi ictus o paralisi. Potrebbe anche consentire una comunicazione continua tra esseri umani e macchine, come il funzionamento di un bionico braccio o robot.
Lo studio è stato selezionato come articolo in evidenza al Conferenza NeurIPSun incontro annuale di alto livello che mette in mostra la ricerca leader a livello mondiale sull’intelligenza artificiale e l’apprendimento automatico, tenutosi a New Orleans.
La ricerca è stata condotta da Illustre professore CT Lindirettore del Centro HAI GrapheneX-UTS, insieme al primo autore Yiqun Duan e al collega dottorando Jinzhou Zhou della Facoltà di Ingegneria e IT dell’UTS.
Nello studio i partecipanti leggevano in silenzio passaggi di testo mentre indossavano un berretto che registrava l’attività elettrica del cervello attraverso il cuoio capelluto utilizzando un elettroencefalogramma (EEG). Si può vedere una dimostrazione della tecnologia in questo video.
L’onda EEG è segmentata in unità distinte che catturano caratteristiche e modelli specifici del cervello umano. Ciò viene fatto da un modello di intelligenza artificiale chiamato DeWave sviluppato dai ricercatori. DeWave traduce i segnali EEG in parole e frasi imparando da grandi quantità di dati EEG.
“Questa ricerca rappresenta uno sforzo pionieristico nella traduzione delle onde EEG grezze direttamente nel linguaggio, segnando un passo avanti significativo nel campo”, ha affermato l’illustre professor Lin.
“È il primo a incorporare tecniche di codifica discreta nel processo di traduzione dal cervello al testo, introducendo un approccio innovativo alla decodifica neurale. L’integrazione con ampi modelli linguistici sta aprendo nuove frontiere anche nelle neuroscienze e nell’intelligenza artificiale”, ha affermato.
La precedente tecnologia per tradurre i segnali cerebrali in linguaggio richiedeva un intervento chirurgico per impiantare elettrodi nel cervello, come Neuralink di Elon Musk, o la scansione in una macchina per la risonanza magnetica, che è grande, costosa e difficile da usare nella vita quotidiana.
Questi metodi faticano anche a trasformare i segnali cerebrali in segmenti a livello di parola senza aiuti aggiuntivi come il tracciamento oculare, che limitano l’applicazione pratica di questi sistemi. La nuova tecnologia può essere utilizzata con o senza tracciamento oculare.
La ricerca UTS è stata condotta con 29 partecipanti. Ciò significa che è probabile che sia più robusta e adattabile rispetto alla precedente tecnologia di decodifica testata solo su uno o due individui, poiché le onde EEG differiscono da individuo a individuo.
L’uso di segnali EEG ricevuti attraverso una cuffia, piuttosto che da elettrodi impiantati nel cervello, significa che il segnale è più rumoroso. In termini di traduzione dell’EEG, tuttavia, lo studio ha riportato prestazioni all’avanguardia, superando i parametri di riferimento precedenti.
“Il modello è più abile nell’associare i verbi che i sostantivi. Tuttavia, quando si tratta di nomi, abbiamo notato una tendenza verso coppie di sinonimi piuttosto che traduzioni precise, come ‘l’uomo’ invece di ‘l’autore’”, ha detto Duan.
“Pensiamo che ciò sia dovuto al fatto che quando il cervello elabora queste parole, parole semanticamente simili potrebbero produrre modelli di onde cerebrali simili. Nonostante le sfide, il nostro modello produce risultati significativi, allineando le parole chiave e formando strutture di frasi simili”, ha affermato.
Il punteggio di accuratezza della traduzione è attualmente intorno al 40% su BLEU-1. Il punteggio BLEU è un numero compreso tra zero e uno che misura la somiglianza del testo tradotto automaticamente con un insieme di traduzioni di riferimento di alta qualità. I ricercatori sperano di vedere questo miglioramento a un livello paragonabile ai tradizionali programmi di traduzione linguistica o di riconoscimento vocale, che è più vicino al 90%.
La ricerca fa seguito a quella precedente tecnologia di interfaccia cervello-computer sviluppato da UTS in collaborazione con l’Australian Defence Force che utilizza le onde cerebrali per comandare un robot quadrupede, come dimostrato in questo video dell’ADF.
Fonte: UTS
Da un’altra testata giornalistica. news de www.technology.org