Buongiorno cari lettori, oggi vi andremo a parlare dell’iCub3 che sta per essere tra i robot più potenti sul mercato se verrà commercializzato con tutte le caratteristiche tecniche promesse durante la presentazione.
È un po’ strano pensare che iCub, la cui prima versione è stata rilasciata nel 2008, ora sia un adolescente a pieno titolo: dopotutto, il robot è stato originariamente progettato per un bambino di tre anni e non è cresciuto così tanto molto. Ma a quanto pare, iCub è cresciuto, almeno un po’, con il nuovissimo iCub3, un aggiornamento più grande, più pesante e più potente che può essere utilizzato anche come sofisticata piattaforma di telepresenza immersiva.
Potresti non notare la differenza tra il vecchio e il nuovo iCub a meno che non siano a confronto uno affianco all’altro, difatti iCub3 è 25 cm più alto e pesa 19 kg in più, con gambe più potenti e attuatori riorganizzati su gambe, busto e spalle . La testa è la stessa, ma il collo è un po’ più lungo per rendere il robot più proporzionato nel complesso. In totale, iCub3 è alto 1,25 m e pesa 52 kg, con 54 gradi di libertà.
Parte del motivo di questi aggiornamenti è trasformare iCub3 in una piattaforma avatar, ovvero un robot umanoide che può incarnare un umanoide remoto di tipo più biologico. Questo è qualcosa su cui stanno lavorando da tempo i ricercatori dell’Istituto Italiano di Tecnologia (IIT) guidato da Daniele Pucci, ma questa è di gran lunga la dimostrazione più completa (e ben filmata) che abbiamo visto:
Un paio di quelle riprese all’inizio del video sembrano fatte al computer, ma in realtà sono la rappresentazione reale dell’esperienza dell’utente, o almeno, non sarà accurate fino a quando iCub non potrà fare davvero, dato che ci stanno lavorando per renderlo possibilmente la migliore esperienza disponibile. È anche, onestamente, un po’ difficile dire quale sia l’esperienza dell’utente in realtà basata solo su questo video. Fortunatamente, i ricercatori hanno pubblicato un articolo sull’utilizzo di iCub3 come avatar che include molti dettagli.
Questa particolare demo si è svolta su una distanza di quasi 300 km (Genova-Venezia), il che conta nel senso che non si tratta di infrastrutture che sono completamente sotto il controllo del ricercatore. Per farlo funzionare richiede (come puoi vedere dal video) un sacco di attrezzature, tra cui:
- Le Cuffie HTC Vive PRO eye4
- Il Tracker facciale VIVE5
- La tuta iFeel sensorizzata e tattile6
- Il Guanto aptico SenseGlove DK17
- Il Tapis roulant omnidirezionale Cyberith Virtualizer Elite 28
Messe insieme, tutte queste cose consentono di reindirizzare la manipolazione, la locomozione, la voce e persino le espressioni facciali dall’umano al robot. Il retargeting delle espressioni facciali è nuovo per me e si applica allo sguardo e allo stato delle palpebre, nonché alla bocca dell’utente.
Tornando dall’altra direzione, dal robot all’essere umano, c’è l’audio, una visuale in prima persona immersiva e una moderata quantità di feedback tattile. iCub3 ha una skin sensorizzata con una risoluzione abbastanza elevata, ma che viene tradotta solo in un paio di specifici nodi di vibrazione indossati dall’utente. Il feedback tattile delle mani non è male: c’è un feedback di forza su ciascun dito e motori di vibrazione della punta delle dita. Non proprio al livello che si è avuto con HaptX, ma sicuramente funzionale. Presto si svolgerà un test più pratico, poiché iCub3 si svolgerà nel round finale del concorso ANA Avatar XPRIZE che “mira a creare un sistema di avatar in grado di trasportare la presenza umana in una posizione remota in tempo reale”.
Questo è tutto per ora sull’iCub3, un robot che potrebbe rivoluzionare il mondo se mantiene tutte le promesso che si sono fatte, ad un prossimo articolo.