di Diego Castagno

Per capire quanto è sofisticata e straordinaria l’intelligenza umana e quanto poco conosciamo ancora del nostro cervello basta guardare come funziona l’intelligenza artificiale e i progressi della tecnologia e del digitale.
A Pechino venerdi 8 Agosto è cominciata la World Robot Conference, giunta alla sua decima edizione, un grande evento sulla robotica, forse il piu grande ed importante nel suo genere.
Oltre 1.500 prodotti innovativi provenienti da tutto il mondo, esposti nel distretto di Yizhuang. Il tema della decima edizione è “Rendere i robot più intelligenti”, facendo il punto di fatto sui progressi straordinari degli ultimi anno nel campo dell’intelligenza artificiale e della robotica, compresi gli umanoidi e le abilità che in questi anni sono state sviluppate. Ad esempio si pensava che un robot non sarebbe stato in grado di superare il test del sacchetto delle arance, cioè di prendere oggetti delicati e fragili senza danneggiarli. Oggi invece i robot di tesla hanno imparato a maneggiare un uovo senza romperlo. O all’opposto riescono a sfidarsi sul ring ius un incontro di Box o di Tai Chi, per la gioa del pubblico entusiasta della fiera.
Le macchine oggi si muovono in maniera più coordinata e con movimenti più fluidi e precisi, ad esempio riescono a correre la maratona di Pechino o ad infilare un filo nell’ago per cucire. Ma soprattutto cominciano a mostrare un certa autonomia. Se ad esempio prima il robot faceva sport o giochi di squadra con l’intervento dell’uomo che lo guidava oggi fa da solo. Durante Il World Robot Conference si è giocato il primo incontro di calcio completamente autonomo, una partita 3 contro 3 tra robot. Questa partita è un “evento” vero e proprio, perché segna un enorme passo avanti nell’autonomia robotica in generale: facile immaginare un robot che fa qualunque cosa in autonomia, il soldato, l’infermiere o il badante, per citare qualche mestiere a caso.
Volendo essere ottimisti e aperti al cambiamento allora la World Robot Conference di Pechino 2025 ha offerto l’aspetto affascinante del futuro della robotica, con macchine che evolvono e diventano non solo più autonome, ma anche più intelligenti e sempre più integrate nella nostra vita quotidiana.
La macchina infatti con l’evoluzione delle intelligenze artificiali generative, l’aumento della capacità di calcolo ed un training sempre più efficace si avvicina sempre di più ad una simulazione dei comportamenti e delle prestazioni del cervello umano che fino a qualche anno fa animavano solo la creatività degli sceneggiatori dei film di fantascienza.
Oggi invece si sta sviluppando anche l’intelligenza “fisica” dei robot, cioè la capacità di interagire e adattarsi all’ambiente circostante, nel quale la macchina svolge le sue attività, un approccio che mira a migliorare l’efficienza dei robot nei contesti più vari e complessi. Anche in questo caso l’evoluzione è molto importante. Fino a qualche anno ad esempio si costruivano spazi di lavoro semplici a misura di macchina. Oggi invece il robot si adatta anche a spazi e ecosistemi “complessi”, ad esempio quello all’assistenza personale: il famoso robot “colf” o badante su cui si sono cimentati molti imprenditori visionari, Elon Musk tra gli altrui.
La necessità di assistenza alla persona e agli anziani malati o con patologie croniche, grande tema della Silver Economy e questione aperta per il nostro welfare, spinge le aziende a concentrare i loro sforzi in termini di ricerca e innovazione proprio su queste applicazioni della robotica e dell’IA.
A Pisa ad esempio hanno inventato Abel. A prima vista sembra un ragazzino nel pieno dell’adolescenza: pelle chiara, occhi vispi, un volto capace di sorridere, incuriosirsi, perfino di accigliarsi. In realtà, Abel è un robot umanoide iper-realistico creato nei laboratori dell’Università di Pisa per esplorare il terreno affascinante e complesso dell’empatia artificiale.
L’idea nasce al Centro di Ricerca “Enrico Piaggio” e nel FoReLab dell’Università di Pisa da un team di ingegneri biomedici e meccatronici, alcuni esperti di effetti speciali, uno scultore olandese Gustav Hoegen, noto per le sue creature hollywoodiane.
Il risultato è Abel, un androide con decine di micro-attuatori sotto la pelle in silicone, capace di replicare con grande precisione le micro-espressioni del volto umano. Il corpo ospita sensori visivi e uditivi, mentre un software di intelligenza artificiale analizza le parole, il tono della voce e il linguaggio non verbale dell’interlocutore. Con questi strumenti Abel è in grado di sviluppare “empatia” artificiale, simile a quella umana, cioè ha la capacità di riconoscere i segnali emotivi di chi ha davanti e rispondere o comportarsi in modo coerente. Abel non “prova” emozioni, ma può simulare comportamenti che trasmettono comprensione, ascolto e partecipazione, caratteristiche preziose in contesti terapeutici, ad esempio per stimolare la comunicazione in bambini con disturbi dello spettro autistico o per ridurre l’isolamento emotivo di persone con demenza.
Negli ultimi anni Abel è cresciuto e ha “studiato” facendo passi importanti: dalla fase di prototipo in laboratorio alla presentazione in pubblico all’Internet Festival di Pisa, fino a diventare oggi una sorta di “piattaforma” sperimentale, nella quale sviluppare nuova innovazione e nuova tecnologia. Sono stati migliorati il riconoscimento emotivo e il timing delle risposte, i movimenti sono più naturali e le espressioni ancora più simili a quelle umane. L’obiettivo resta ora quello di creare interazioni ancora più fluide, attraverso le quali l’interlocutore umano dimentichi di avere di fronte un robot.
Al di là della sfida etica su quanto realismo sia tollerabile in un androide e su quali e quanti rischi comporti la possibilità di affidare ad una macchina la lettura e l’interpretazione delle emozioni umane, le applicazioni di Abel nella cura delle persone anziane o malate è straordinariamente importante.
Per ora Abel è uno strumento di ricerca e sperimentazione, e l’empatia di cui è capace è una simulazione di quella umana, sempre molto docile e accondiscendente. Abel è la dimostrazione che il cervello artificiale di queste macchine cometa di più delle prestazioni fisiche di cui sono capaci. Certo però che il volto sempre più umano e sempre meno artificiale del robot pisano apre una finestra sul futuro delle relazioni tra noi e le macchine nel quale, forse potrebbe essere normale aspettarsi che un robot ci possa assomigliare e soprattutto ci possa capire.











