Intelligenza artificiale e “Teoria della mente”: la Columbia University presenta i robot con una “forma primitiva di empatia”

Anticipare le azioni future sulla base dell’osservazione: oggi questa basilare reazione che ciascuno mette in pratica, non è più soltanto una prerogativa dell’essere umano. I ricercatori della Columbia University di New York hanno sviluppato un robot che mostra un “barlume di empatia” prevedendo  come si comporterà un’altra macchina simile, dalle azioni agli obiettivi imminenti. 

I ricercatori hanno disposto un robot in un piccolo box e lo hanno programmato per spostarsi nella direzione di un cerchio verde. Hanno poi disposto un secondo robot nel recinto per osservare il primo. Dopo che il robot osservatore ha osservato il comportamento dell’attore per circa due ore, ha iniziato a indovinare i movimenti futuri del suo partner. Alla fine è riuscito a prevedere l’obiettivo e il percorso del soggetto 98 volte su 100.

A volte il cerchio verde veniva ostruito alla vista del primo robot da una scatola di cartone: in questo caso si spostava verso il cerchio verde più vicino che poteva vedere. Ebbene, il robot osservatore era in grado di vedere tutti i cerchi verdi dal suo punto di osservazione, riuscendo a “mettersi nei panni dell’altro robot”, individuando quale cerchio verde sarebbe sembrato più vicino e prevedendo correttamente il suo movimento verso esso.

Boyuan Chen, l’autore principale dello studio, ha affermato che i dati iniziali sono stati “molto entusiasmanti”. “I nostri risultati – spiega nel report scientifico dedicato – iniziano a dimostrare come i robot possono vedere il mondo dalla prospettiva di un altro robot. La capacità dell’osservatore di mettersi nei panni di un simile senza essere guidato è senz’altro una forma primitiva di empatia. Il team ritiene che il loro approccio potrebbe aiutare a preparare una “Teoria della mente” robotica, simile a quella che gli esseri umani usano per comprendere i pensieri e i sentimenti di altre persone”.

[embedded content]

I ricercatori ammettono che ci sono molti limiti al loro progetto. “Riconosciamo che i robot non rimarranno a lungo macchine passive che seguono le istruzioni”, ha affermato il professor Hod Lipson, responsabile dello studio. “Come altre forme di intelligenza artificiale avanzata, speriamo che le istituzioni aiutino a tenere sotto controllo questo tipo di tecnologia, in modo che tutti possiamo trarne vantaggio”.

Tuttavia, il team ritiene che la “previsione visiva” che hanno dimostrato potrebbe approfondire la nostra comprensione del comportamento sociale umano e gettare le basi per macchine socialmente più abili, sebbene la strada sia impervia dal punto di vista etico e richiede attenzione nel suo monitoraggio. Si tratta solo di un “barlume” di empatia, ma il suo sviluppo è molto significativo nel mondo dell’elettronica.

Fonte : Today