I robot e la simulazione delle emozioni, un approfondimento

Un saluto dal mondo della Simulazione! Quest’oggi mi piacerebbe intraprendere con voi un viaggio sì nel mondo della simulazione, come da programma, ma anche nel mondo delle emozioni. Prendete posto e che il viaggio abbia inizio!

Aveva la strana abitudine di non raccontare nulla. Aveva la tempesta dentro e nessuno lo notava.

Cesare Pavese

Un ripasso sui robot

Se parliamo di simulazione, non possiamo non parlare di robot. Negli articoli precedenti abbiamo parlato di essi riguardo il nostro rapporto con loro, la nostra paura verso di essi e l’aiuto da loro (indirettamente) offerto. Come abbiamo ampiamente discusso in precedenza, ci avvaliamo di robot che cerchiamo di rendere il più possibile simili a noi. Questa somiglianza tra noi e loro riguardo tanto l’estetica, quindi l’antropomorfismo, quanto le abilità cognitive. Abbiamo cercato di compensare le nostre lacune creando degli oggetti che non presentassero le nostre debolezze, ne è dimostrazione il fatto che le macchine siano infallibili ed instancabili. Abbiamo cercato e stiamo cercando di renderli “umani” e  nostri perfetti collaboratori. Per questo, però, sono richieste alcune caratteristiche che ancora essi non possiedono e sono peculiari degli esseri umani: le emozioni.

Come è stato affermato nei precedenti articoli, l’antropomorfismo dei robot è ambivalente: da un lato siamo felici che essi ci assomiglino perché in tal modo è più probabile un’integrazione di successo tra noi e loro, ma, dall’altra parte, questa eccessiva somiglianza ci può spaventare. Va da sé che l’aspetto estetico dei robot è correlato alla funzione per cui essi sono stati progettati: ad esempio, è sensato che un robot che deve assolvere al compito di trasportare oggetti sia dotato di braccia e di mani con cinque dita.

 

I robot e la simulazione delle emozioni

Nel paragrafo precedente abbiamo accennato che le emozioni sono in qualche modo richieste ai robot affinché essi riescano meglio nel loro compiti di aiuto agli esseri umani. In quale modo, però?

Immaginiamo il seguente scenario: siamo nella nostra dimora ed insieme con noi si trovano i nostri robot. Siamo delusi, sconsolati per qualche ragione personale e chiediamo l’aiuto dei robot per sistemare alcune faccende domestiche. Questi si presentano mostrando un sorriso statico, mostrando estrema cortesia e dimostrandosi oltremodo educati anche quando “trattati male”. Quale potrebbe essere la nostra risposta emotiva ad una situazione del genere? Indubbiamente saremmo seccati da questa estrema gentilezza da parte dei robot (attenzione, con questo non voglio intendere che i robot debbano essere maleducati, scontrosi ed irascibili come sappiamo esserlo noi, esseri umani). Nella letteratura fantascientifica sono numerosi gli episodi in cui i personaggi umani comunicano il proprio disagio di fronte alla perfezione dei robot. Un esempio di questo è Elijah Baley, protagonista del Ciclo dei Robot di Asimov.

Tornando a noi, comprendiamo bene quanto possa essere importate e cruciale che i robot tanto capiscano le nostre emozioni quanto siano capaci di metterle in atto a loro volta, così che noi possiamo “comprenderli”. Inoltre, consideriamo il ruolo che la presenza di emozioni ricopre durante i processi di apprendimento. In parte abbiamo già discusso questo argomento quando parlavamo di Realtà Virtuale ed istruzione, se ben ricordate. 
Paura, ansia, dolore e infelicità da un lato, piacere, soddisfazione e gratitudine dall’altro potrebbero essere stati psicologici ed emotivi che influenzano positivamente l’apprendimento da parte dei robot. Non dimentichiamo il ruolo che potrebbe ricoprire la frustrazione: essa impedirebbe ai robot di rimanere bloccati in un’unica attività oppure di eseguire la stessa attività che si dimostra poco utile. Vi lascio il link ad un articolo in cui si discorre la crescita dell’intelligenza emotiva da parte delle Intelligenze Artificiali.

 

Due esempi di simulazione di emozioni

Per completare l’analisi che abbiamo operato sinora, vi riporto l’esempio di due robot che in qualche modo hanno cercato di interagire emotivamente con gli esseri umani. Il primo di questi è Sophia, un androide sociale capace di riprodurre più di 62 espressioni facciali umane. Vi lascio il link ad un’intervista a Sophia, così che possiate capire meglio quali siano le potenzialità di questo androide:

Il secondo esempio che vi riporto riguarda Kismet, robot progettato per l’interazione sociale. Più in dettaglio, Kismet utilizza informazioni riguardo la nostra voce e il nostro linguaggio del corpo per scoprire il nostro stato emotivo. L’aspetto sorprendente di Kismet è che, nonostante non sia in grado di comprendere quello che diciamo, reagisce ai nostri movimenti dandoci l’impressione di “ascoltarci”. Ecco un video in cui si spiega il funzionamento di Kismet:

 

Robot “emotivi” nei film

I film sono il luogo migliore in cui possiamo vedere i nostri robot emotivi “in azione” e, come potete ben immaginare, sono molto differenti i loro comportamenti. Come principale differenza tra i diversi robot che popolano i film di fantascienza possiamo annoverare l’espressività dei loro volti. Provate a rispondere a questa domanda: in quanti dei film che avete visto le espressioni dei robot sono diversificate, ben dichiarate e di facile comprensione? E ancora,  l’intelligenza dei robot è associabile ad espressività ed emotività?

Prendiamo ad esempio R2D2 e C3PO (robot tratti dalla saga di Star Wars): chiunque è in grado di capire quali siano le loro emozioni e sono apprezzati in special modo per le loro limitazioni, tra queste la goffaggine di C3PO. Se questi robot fossero perfetti sotto ogni punto di vista, sarebbe alquanto difficile che tutto il pubblico simpatizzi per loro.

R2D2 e C3PO

Prendiamo in esame il caso di HAL 900 (acronimo per Heuristic ALgorithmic) del film 2001: Odissea nello Spazio e di David del film A.I.. HAL, quando capisce di essere in pericolo, esprime paura – giustamente – e cerca di modificare il proprio destino contravvenendo alle proprie istruzioni. David, invece, è un robot attivato con lo scopo di sostituire un bambino vero. Secondo la trama del film, David presenta una forma di amore incondizionato, il che lo rende incompatibile con le caratteristiche degli esseri umani, tant’è che la sua perfezione è la causa del suo stesso abbandono.

Il motivo per cui vi ho riportato le vicende di questi quattro robot è il seguente: le emozioni sono ciò che potrebbero rendere migliore l’interazione tra noi e i robot, specialmente se questi riescono ad assumere stati emotivi adatti alle circostanze. Tuttavia, la perfezione sotto questo punto di vista è la principale fonte di disagio da parte di noi esseri umani nei confronti dei robot. Da un lato desideriamo che i robot ci assomiglino così che i nostri rapporti con loro possano essere migliori, dall’altro, però, la loro perfezione e somiglianza ci può spaventare e disarmare. Ciò potrebbe portarci alla disattivazione dei robot (o al loro abbandono, come nel caso di David), fatto che vanifica studi e progetti di molti anni.

 

Gli esseri umani simulano le emozioni?

Non perdiamoci in quisquilie e partiamo subito con una domanda diretta: noi esseri umani sappiamo simulare le emozioni? Se sì, per quale motivo attuiamo questa simulazione? Rispondendo al primo interrogativo possiamo affermare quasi con certezza assoluta che, alle volte, simuliamo le emozioni. Ciò, tuttavia, non sempre è considerato negativamente, tant’è che esiste la cosiddetta “faccia da poker” e coloro i quali riescono ad assumerla godono di grande considerazione. Esistono numerosi studi che, in ogni caso, affermano che sia impossibile avere il pieno controllo sull’intero corpo. Non sempre, ad ogni modo,  è “positivo” assumere la poker face, ne può risentire la nostra salute. 

Ora concentriamo brevemente sul motivo per cui potremmo essere disposti a simulare le emozioni e non mostrare veramente quello che proviamo. Premessa: è pressoché impossibile dissimulare completamente le emozioni che si provano. Si può controllare il linguaggio del corpo e del volto, ma le componenti viscerali non sono ahimè sotto il nostro diretto controllo. Non è mia pretesa indagare la psiche umana riguardo la simulazione delle emozioni, tuttavia vorrei semplicemente farvi riflettere su questo tema. Proviamo a pensare al numero di volte in cui ci chiedono come stiamo e rispondiamo “tutto bene”, pur sapendo di mentire spudoratamente. Perché lo facciamo? Bè, i motivi e le ragioni sono numerosi.

In conclusione di questo articolo, vi lascio con un’ultima riflessione, che vuole essere in qualche modo provocatoria. Investiamo le nostre energie nel tentativo di creare macchine che rispondano adeguatamente a segnali emotivi, ma, in fin dei conti, non tutti gli esseri umani riescono particolarmente bene in quest’attività. Facciamo questo perchè la macchina, per definizione, deve essere perfetta? Inoltre, quanto saremmo disposti ad accettare la presenza di macchine che riescono meglio di noi in compiti che ci hanno sempre contraddistinto dagli altri esseri viventi?

 

A presto,

 

 

Mara

 

 

Fonti:

  • http://www.ai.mit.edu/projects/humanoid-robotics-group/kismet/kismet.html
  • Norman, D. (2004). Emotional design. Perché amiamo (o odiamo) gli oggetti della vita quotidiana