Egea


 

Nell’era dell’IA, ci troveremo sempre più spesso a sviluppare sentimenti autentici verso macchine progettate per farci provare queste emozioni, senza poterle ricambiare. Il tecnologo Massimo Canducci spiega come funzioni – e come gestire – l’“Empatia artificiale”.


Vi è mai capitato di ringraziare, istintivamente, il vostro assistente vocale? Di chiedere “per favore” a un chatbot o “scusa” a un robot aspirapolvere urtato accidentalmente per casa? Se la risposta è sì, non preoccupatevi: c’è chi è già andato molto oltre, e con buona probabilità – presto o tardi – lo farete anche voi. In Giappone, un uomo ha «sposato» un ologramma di Hatsune Miku, un personaggio virtuale originariamente creato come mascotte per un software di sintesi vocale. In Cina, milioni di persone interagiscono quotidianamente con «amici AI» attraverso applicazioni come Replika o XiaoIce, condividendo le loro gioie, paure e speranze con entità digitali. Quella che fino a pochi anni fa era fantascienza, oggi diventa quotidianità: i progressi delle tecnologie di intelligenza artificiale stanno cambiando il modo in cui ci relazioniamo, comunichiamo e perfino amiamo (ricordate il fim “Her”?).
 
Nel suo nuovo saggio, "Empatia artificiale" (Egea, 2025), Massimo Canducci – manager, tecnologo e docente – ci guida in un viaggio tra tecnologia, neuroscienze, psicologia e filosofia, per esplorare le opportunità e i rischi di un mondo in cui le macchine non solo ci capiscono, ma sembrano anche “sentire” con noi. Un futuro – già iniziato – che ci pone davanti a domande radicali: cosa significa essere umani, amare, fidarsi, sentirsi ascoltati? E cosa accade quando le macchine imparano a simulare tutto questo?
 
Grazie a sensori, algoritmi di machine learning e reti neurali, oggi le macchine sono in grado di cogliere segnali sottili: dal tono della voce alle microespressioni facciali, dai pattern linguistici ai dati biometrici. E possono rispondere in modo sempre più personalizzato, convincente, “umano”. Al centro di questa trasformazione si colloca un paradosso affascinante e potenzialmente inquietante: ci troveremo sempre più spesso a sviluppare sentimenti autentici verso macchine progettate per farci provare queste emozioni, anche se queste stesse macchine non potranno mai davvero ricambiarle. Non perché siano mal progettate, ma perché è nella loro natura simulare, non provare, emozioni. In questa asimmetria fondamentale risiede sia il potenziale sia il rischio di questa nuova era di relazioni tra umani e macchine.
Il pericolo non è solo quello di “innamorarsi” di qualcosa che non possa ricambiare, ma anche di perdere la capacità di gestire la complessità delle relazioni reali, di rifugiarsi in un mondo dove tutto è prevedibile, rassicurante, ma fondamentalmente unidirezionale.
 
Le Leggi della Robotica formulate da scrittore Isaac Asimov hanno rappresentato uno più influenti tentativi di definire princìpi etici per guidare il comportamento delle macchine intelligenti. Concepite come elemento narrativo nei racconti di fantascienza dello scrittore, le leggi sono diventate nel tempo un punto di riferimento anche nelle discussioni etico-filosofiche reali sulla robotica e l’intelligenza artificiale, e pilastro di una visione ottimista secondo cui “un robot non può recare danno all’umanità né può permettere che, a causa del proprio mancato intervento, l’umanità riceva danno”.
Oggi, tuttavia, il vero rischio non è quello di essere feriti da una macchina, quanto quello di essere manipolati, illusi o emotivamente dipendenti da un’intelligenza artificiale che sappia “toccare le corde giuste”. Le Leggi di Asimov sembrano insufficienti per affrontare le nuove sfide dell’empatia artificiale: non contemplano il danno emotivo, la trasparenza delle interazioni, la tutela dell’autonomia e della privacy, né il rischio che le macchine diventino “troppo” convincenti nel simulare sentimenti.
 
Allo stesso tempo, tuttavia, l’empatia artificiale può diventare una risorsa preziosa: per chi soffre di isolamento, per chi ha difficoltà di comunicazione, per chi cerca supporto psicologico immediato. I sistemi di AI possono aiutare a individuare segnali precoci di disagio mentale, offrire compagnia agli anziani, facilitare l’inclusione di persone con bisogni speciali.
 
La sfida – sostiene Canducci – è trovare un equilibrio tra opportunità e rischi, tra innovazione e tutela della dignità umana. Per questo, il libro propone una riflessione su come aggiornare il quadro etico e normativo, suggerendo nuove linee guida che includano la prevenzione del danno psicologico, la chiarezza sulla natura artificiale dell’interlocutore, la salvaguardia dei legami umani autentici e la valorizzazione della diversità culturale nelle esperienze emotive.
"Empatia artificiale" non si limita a lanciare allarmi, ma propone strategie concrete per convivere in modo sano con le nuove tecnologie. L’autore invita a sviluppare una vera e propria alfabetizzazione emotiva digitale: imparare a riconoscere la differenza tra empatia autentica e simulata, a gestire le proprie aspettative, a non delegare alle macchine la responsabilità delle nostre emozioni. Tutto questo, però, sarà inutile se non saremo capaci di mantenere vivi i legami umani autentici (seppur talvolta scomodi), di creare spazi e tempi dedicati all’interazione non mediata dalla tecnologia. Nonché – e questo invito si rivolge a sviluppatori, aziende e istituzioni – di promuovere una cultura della trasparenza e della responsabilità.
 
Il futuro dell’empatia artificiale”, spiega Canducci, “non è scritto: dipenderà dalle scelte che faremo insieme come comunità, dalla capacità di promuovere un dialogo informato e dalla volontà di mettere al centro il benessere collettivo. È essenziale, quindi, che la conversazione su questi temi non rimanga confinata ai laboratori di ricerca o alle sale riunioni delle aziende tecnologiche, ma diventi parte di un dibattito pubblico informato e inclusivo.
La responsabilità di decidere come integrare queste tecnologie nella società non può essere lasciata esclusivamente nelle mani di pochi esperti o delle grandi corporation, ma deve coinvolgere l’intera collettività. Solo attraverso un confronto aperto e partecipato, sarà possibile definire regole e limiti che tutelino i valori fondamentali della nostra convivenza civile.”

 


Acquista il libro