I ricercatori hanno addestrato uno “chef” robotico a guardare e imparare dai video di cucina e ricreare il piatto stesso.
I ricercatori, dell’Università di Cambridge, hanno programmato il loro chef robotico con un “libro di cucina” di otto semplici ricette di insalata. Dopo aver visto un video di un essere umano che mostrava una delle ricette, il robot è stato in grado di identificare quale ricetta si stava preparando e realizzarla.
Inoltre, i video hanno aiutato il robot ad aggiungere progressivamente al suo libro di cucina. Alla fine dell’esperimento, il robot ha escogitato da solo una nona ricetta. I loro risultati, riportati nella rivista Accesso IEEEdimostrano come i contenuti video possono essere una preziosa e ricca fonte di dati per la produzione alimentare automatizzata e potrebbero consentire un’implementazione più semplice ed economica dei robot chef.
Gli chef robotici sono presenti nella fantascienza da decenni, ma in realtà cucinare è un problema impegnativo per un robot. Diverse società commerciali hanno costruito prototipi di chef robot, sebbene nessuno di questi sia attualmente disponibile in commercio e siano molto indietro rispetto alle loro controparti umane in termini di abilità.
I cuochi umani possono imparare nuove ricette attraverso l’osservazione, che si tratti di guardare un’altra persona cucinare o guardare un video su YouTube, ma programmare un robot per preparare una gamma di piatti è costoso e richiede tempo.
“Volevamo vedere se potevamo addestrare uno chef robot a imparare nello stesso modo incrementale che possono fare gli esseri umani, identificando gli ingredienti e come si combinano nel piatto”, ha affermato Grzegorz Sochacki del Dipartimento di ingegneria di Cambridge, il primo del giornale autore.
Sochacki, dottoranda presso il Bio-Inspired Robotics Laboratory del professor Fumiya Iida, ei suoi colleghi hanno ideato otto semplici ricette di insalata e si sono filmati mentre le preparavano. Hanno quindi utilizzato una rete neurale disponibile pubblicamente per addestrare il loro chef robot. La rete neurale era già stata programmata per identificare una serie di oggetti diversi, tra cui la frutta e la verdura utilizzate nelle otto ricette di insalata (broccoli, carote, mele, banane e arance).
Utilizzando tecniche di visione artificiale, il robot ha analizzato ogni fotogramma del video ed è stato in grado di identificare i diversi oggetti e caratteristiche, come un coltello e gli ingredienti, nonché le braccia, le mani e il viso del dimostratore umano. Sia le ricette che i video sono stati convertiti in vettori e il robot ha eseguito operazioni matematiche sui vettori per determinare la somiglianza tra una dimostrazione e un vettore.
Identificando correttamente gli ingredienti e le azioni dello chef umano, il robot poteva determinare quale delle ricette era in preparazione. Il robot potrebbe dedurre che se il dimostratore umano avesse tenuto un coltello in una mano e una carota nell’altra, la carota sarebbe stata tagliata a pezzi.
Dei 16 video che ha guardato, il robot ha riconosciuto la ricetta corretta il 93% delle volte, anche se ha rilevato solo l’83% delle azioni dello chef umano. Il robot è stato anche in grado di rilevare che lievi variazioni in una ricetta, come fare una doppia porzione o un normale errore umano, erano variazioni e non una nuova ricetta. Il robot ha anche riconosciuto correttamente la dimostrazione di una nuova, nona insalata, l’ha aggiunta al suo ricettario e l’ha preparata.
“È incredibile quante sfumature il robot sia stato in grado di rilevare”, ha affermato Sochacki. “Queste ricette non sono complesse: sono essenzialmente frutta e verdura tritate, ma è stato davvero efficace riconoscere, ad esempio, che due mele tritate e due carote tritate sono la stessa ricetta di tre mele tritate e tre carote tritate. “
I video utilizzati per addestrare il robot chef non sono come i food video realizzati da alcuni influencer dei social media, che sono pieni di tagli veloci ed effetti visivi, e si muovono rapidamente avanti e indietro tra la persona che prepara il cibo e il piatto che sta preparando . Ad esempio, il robot avrebbe difficoltà a identificare una carota se il dimostratore umano avesse la mano avvolta attorno ad essa – affinché il robot identificasse la carota, il dimostratore umano doveva sollevare la carota in modo che il robot potesse vedere l’intero ortaggio.
“Il nostro robot non è interessato ai tipi di video sul cibo che diventano virali sui social media: sono semplicemente troppo difficili da seguire”, ha affermato Sochacki. “Ma man mano che questi chef robot diventano sempre più bravi e veloci nell’identificare gli ingredienti nei video sul cibo, potrebbero essere in grado di utilizzare siti come YouTube per imparare un’intera gamma di ricette”.
La ricerca è stata sostenuta in parte da Beko plc e dall’Engineering and Physical Sciences Research Council (EPSRC), parte di UK Research and Innovation (UKRI).
Da un’altra testata giornalistica. news de www.sciencedaily.com