È stata a Lugano nelle scorse settimane, esposta al LAC, destando l’attenzione della comunità scientifica e dei mezzi di comunicazione. Ha dialogato con i giornalisti, rispondendo alle loro domande. Il suo volto in silicone ha le sembianze dell’attrice americana Audrey Hepburn. Lei, Sophia, è un robot umanoide creato dalla Hanson robotics di Hong Kong. Nei suoi occhi che ti osservano, sono inserite due telecamere. Sophia riesce a riprodurre oltre 60 espressioni facciali umane, ha un ampio bagaglio di informazioni e degli algoritmi che le consentono di sostenere un buon numero di conversazioni. Spiega cos’è per lei la felicità e offre giudizi sull’intelligenza della razza umana, sua creatrice. L’Arabia Saudita le ha conferito la cittadinanza, facendo di lei il primo robot al mondo ad avere un passaporto. Ne parliamo con il prof. Markus Krienke, docente di etica sociale alla Facoltà di Teologia di Lugano.
Prof. Krienke, Sophia non è una persona, eppure a vederla e a sentirla il dubbio sorge: è più di una macchina: Cos’è? Come definirla? Cosa sarà, un
Anche se sappiamo che Sophia non dispone di tutti i momenti costitutivi di
un essere umano quali coscienza, intenzionalità, un corpo biologico ecc., non
possiamo accontentarci della risposta che si tratta “solo di una macchina”. Nel
2013 l’Intelligenza Artificiale (IA) ha raggiunto il quoziente intellettivo
(QI) di un bambino di 4 anni mentre tra un decennio sarà paragonabile a quella
di un adulto. L’IA “Deep Blue” ha vinto nel 1996 contro il campione del mondo
di scacchi, Kasparov, e nel 2016 il programma “AlphaGo” ha battuto Lee Sedol addirittura
nel gioco “Go” – un antico gioco da tavolo cinese ritenuto “impossibile” per
l’IA perché richiede specifiche capacità intuitive e strategiche per cui un
computer non può cavarsela con il semplice calcolo delle mosse possibili. Si
prevede che alla metà di questo secolo, le “macchine” svolgeranno quasi la metà
dei lavori di oggi, non risparmiando i “colletti bianchi”. La velocità di
questo sviluppo e le previsioni per il futuro ci costringono quindi a una
riflessione profonda. Se i robot ormai sanno “imparare” e possono imitare il
pensiero strategico e persino le emozioni umane nonché agire in modo autonomo,
hanno raggiunto senz’altro ciò che definirei la “soggettività”. Ma non potranno
mai diventare “persone”, per cui resteranno sempre a livello di “cose”. “Gli umani hanno intelligenza, la capacità di adattarsi, l’immaginazione e l’emotività, uno standard molto alto da raggiungere e imitare”, dichiara Sophia. L’umanoide quindi afferma di ambire
Siccome la percezione della realtà come l’ha Sophia consiste esclusivamente
nei dati digitali, lei non ha mai il contatto con il mondo come lo hanno le
persone umane. Quando il robot pronuncia parole, non le mette quindi in
relazione con il mondo esterno a lei. A maggior ragione non può riferirsi a sé
stessa, interrogarsi sulla propria “vita”, su ciò che è “vero” e “buono”, come
fanno gli esseri umani. Infatti, quando Sophia decide e agisce, lo fa sulla
base di mappe che contengono i “dati” del mondo: conosce quindi solo una
codificazione della realtà, che non può mai essere del tutto completa, perché
la realtà è sempre più complessa della capienza di qualsiasi macchina
intelligente. La coscienza umana, al contrario, non pretende di essere
“perfetta” nel conoscere e nell’agire, ma sa di stare veramente in relazione alla realtà e a sé stessa.Questa relazionalità diretta viene anche chiamata “intenzionalità”. Il robot
non possiede la possibilità di riflettere sul mondo e su sé stesso: quindi non avrà
mai coscienza.Proprio questo aspetto che la mente umana possiede intenzionalità e il computer no, viene approfondito dal filosofo americano John Searle. La capacità del computer di eseguire una procedura non implica -come spiega Searle- la semantica, il fatto che la macchina sappia che cosa sta facendo. Sophia è così? Sa fare ma non ha piena
Infatti l’intenzionalità significa
anche questa seconda cosa. Ciò che intende Searle viene verificato anche da un
semplice test, chiamato Winograd Schema Challenge: il computer davanti alla semplice frase «Non posso abbattere lapianta con l’ascia; è troppo piccola» non riesce a rispondere alla domanda «Che
cos’è troppo piccola, la pianta o l’ascia?». Mancando di capacità semantica,
l’IA che senz’altro supera la mente umana in tutti i compiti “quantitativi”, proprio
in questi semplici casi è costretta a indovinare. In altre parole, il computer
combina segni linguistici secondo determinate regole, ottenendo risultati
sempre migliori, specialmente quando pensiamo ai programmi di traduzione, ma
non comprende che cosa dice e a checosa riferisce con le parole. Mentre l’IA affronta la
realtà in modo solo quantitativo, il cervello umano eccelle nell’avere l’intenzionalità.Searle, sfuggendo da una prospettiva dualista cartesiana, asserisce che la coscienza è una caratteristica fisica degli organismi dotati di sistema nervoso: la coscienza è causata dal cervello, ma non si identifica con l’attività del cervello. Sophia pensa ma non ha un corpo umano. Quel è il valore del corpo umano in rapporto all'essere una persona? E
Questa intenzionalità di cui abbiamo parlato, la
mente umana ce l’ha soltanto in quanto possiede un corpo biologico, perché solo
esso costituisce il necessario contatto diretto con la realtà e quindi la
capacità di potersi riferire direttamente a qualcosa. Come abbiamo visto, solo
tale riferimento dà significato alle parole e all’agire. Ammettiamo che Mary conosca
tutte le informazioni su cosa significa “vedere colori”, ma viva in una casa in
cui non esistono colori. Fino a quando non esce dalla casa, non saprà mai come è vedere i colori. Eccol’importanza del nostro corpo per ogni tipo di esperienza umana che non è mai
riducibile all’insieme di dati di cui può disporre un’IA, ricavandone
imitazioni sorprendenti e addirittura perfezionamenti del pensiero e
dell’azione umana. “Farò del mio meglio per creare un mondo migliore”, assicura Sophia in una delle sue interviste. Robot come Sophia potrebbero essere usati -ad esempio- per far compagnia agli anziani o per sostituire il personale impiegato in lavori ripetitivi, in un futuro anche
Lo stesso ragionamento sulla differenza dell’“esperienza umana” da quella
del robot umanoide vale nel campo morale
delle relazioni tra le persone, a maggior ragione quando si tratta di rapporti
di fiducia e di cura: ammettiamo che un assistente di cure (robot) uccida
per sbaglio un paziente, perché gli mancava l’informazione che invece della
medicina gli dava veleno, ed esprima dispiacere per la morte del paziente.
Siccome si tratta di un robot, non esiste nessuna possibilità di giudicare
moralmente questa situazione o di attribuirgliene responsabilità: semplicemente
gli “mancava” un’informazione, e il dispiacere è solo la reazione che esso ha
imparato a mostrare in tali casi. Certamente
anche per il robot sarebbe meglio se il paziente non fosse morto perché
riceverebbe un feedback positivo, manon gli è possibile giungere a un giudizio morale (“di coscienza”) sul proprio
agire. Sebbene, riguardo al settore della cura delle persone manchi ai
robot il senso della responsabilità e dell’empatia, si colloca proprio qui uno
degli sbocchi possibili dell’IA per una società sempre più anziana. Perciò, mentre
nei lavori ripetitivi non si pongono questi problemi morali, sarà necessario
trovare delle regole e legislazioni precise per l’utilizzo dell’IA in lavori in
cui i robot entrano in contatto diretto con delle persone. Nei lavori ripetitivi, l’IA può essere considerata “mezzo tecnologico”,
mentre nei lavori di assistenza di persone essa assume una vera e propria agency verso le persone. Un ulteriore motivo per l’introduzione di tali regolee limiti sta nel fatto che della persona assistita sono coinvolte dimensioni sensibili
ed emozionali. Ma come si vede non solo nel caso di Sophia ma anche nel film Ex Machina del 2015, quando i robot riesconoa imitare le emozioni umane e a leggere le espressività degli esseri umani con cui
interagiscono, ciò è sempre il risultato di Big Data, per cui tali emozioni e interazioni non saranno mai espressioni spontanee in riferimento a qualcosa: non hanno significato.Stiamo andando nella direzione di quello che l’autore americano Raymond Kurzweil preconizza nel suo libro futuristico del 1999 “The age of Spiritual
Da Prometeo, passando per la figura medievale di Golem fino a Frankenstein,
il sogno di creare esseri intelligenti e dotati di tutte le capacità umane,
inclusa la coscienza, accompagna l’umanità. E come si vede nel film Matrix,
oggi questo desiderio porta all’idea di oltrepassare con una sorta di
“evoluzionismo tecnologico” l’umano in una sfera transumana dell’IA. In questa
prospettiva, l’era delle macchine spirituali sarebbe il punto di arrivo, del
resto previsto dall’autore Raymond Kurzweil nel suo libro futuristico per il
vicino 2045: mentre lo “svantaggio” dell’intelligenza umana starebbe nell’essere
ancora legata al corpo imperfetto, soggetto alle sue debolezze e infine alla
morte, l’IA la supera -in questa visione- nella costituzione di macchine
spirituali, infallibili e immortali. Tale stadio della realizzazione di un’IA
“forte” (cioè pienamente sostituente l’intelligenza umana) egli lo chiama la
“Singolarità”. Ciò su cui Kurzweil non riflette, è proprio che in questo modo
tali “macchine spirituali” non superano ma perdono tutto ciò che davvero rende
l’uomo – nella sua “singolarità” incorporata – la “corona” della creazione:
libertà, autodeterminazione, la capacità di fare scelte morali e di assumersi
la responsabilità, la capacità di perdono ecc. Tutte queste perfezioni le
possiede lo spirito umano proprio perché non è “artificiale” ma risiede in un
corpo biologico.L’IA forse aspira alle “decisioni perfette”, ma il carattere morale delle scelte e decisioni umane non sta nella “perfezione” ma nella capacità di ponderare ragioni e motivi dell’agire, cercando di realizzare il bene e di evitare il male. In altre parole, mentre l’imperativo dell’IA è l’ottimizzazione, quello degli esseri umani è la “responsabilità”. Nella menzionata prospettiva di Kurzweil, tutto dipende da come si definisce lo “spirito”: se, sulla base di ciò che abbiamo appena detto, chiamiamo “spirito” intelligence with reason, allora l’IA come intelligence without reason non potrà mai inaugurare un’«età delle macchine spirituali».
https://youtu.be/NMuukB-6QWw