Skip to content
Parola del giorno rito Romano | Ambrosiano (30 aprile 2025)
CATT
  • Sophia: le sfide etiche di un robot che è più di una macchina

    È stata a Lugano nelle scorse settimane, esposta al LAC, destando l’attenzione della comunità scientifica e dei mezzi di comunicazione. Ha dialogato con i giornalisti, rispondendo alle loro domande. Il suo volto in silicone ha le sembianze dell’attrice americana Audrey Hepburn. Lei, Sophia, è un robot umanoide creato dalla Hanson robotics di Hong Kong. Nei suoi occhi che ti osservano, sono inserite due telecamere. Sophia riesce a riprodurre oltre 60 espressioni facciali umane, ha un ampio bagaglio di informazioni e degli algoritmi che le consentono di sostenere un buon numero di conversazioni. Spiega cos’è per lei la felicità e offre giudizi sull’intelligenza della razza umana, sua creatrice. L’Arabia Saudita le ha conferito la cittadinanza, facendo di lei il primo robot al mondo ad avere un passaporto. Ne parliamo con il prof. Markus Krienke, docente di etica sociale alla Facoltà di Teologia di Lugano.

    Prof. Krienke, Sophia non è una persona, eppure a vederla e a sentirla il

    dubbio sorge: è più di una macchina: Cos’è? Come definirla? Cosa sarà, un

    domani?

    Anche se sappiamo che Sophia non dispone di tutti i momenti costitutivi di

    un essere umano quali coscienza, intenzionalità, un corpo biologico ecc., non

    possiamo accontentarci della risposta che si tratta “solo di una macchina”. Nel

    2013 l’Intelligenza Artificiale (IA) ha raggiunto il quoziente intellettivo

    (QI) di un bambino di 4 anni mentre tra un decennio sarà paragonabile a quella

    di un adulto. L’IA “Deep Blue” ha vinto nel 1996 contro il campione del mondo

    di scacchi, Kasparov, e nel 2016 il programma “AlphaGo” ha battuto Lee Sedol addirittura

    nel gioco “Go” – un antico gioco da tavolo cinese ritenuto “impossibile” per

    l’IA perché richiede specifiche capacità intuitive e strategiche per cui un

    computer non può cavarsela con il semplice calcolo delle mosse possibili. Si

    prevede che alla metà di questo secolo, le “macchine” svolgeranno quasi la metà

    dei lavori di oggi, non risparmiando i “colletti bianchi”. La velocità di

    questo sviluppo e le previsioni per il futuro ci costringono quindi a una

    riflessione profonda. Se i robot ormai sanno “imparare” e possono imitare il

    pensiero strategico e persino le emozioni umane nonché agire in modo autonomo,

    hanno raggiunto senz’altro ciò che definirei la “soggettività”. Ma non potranno

    mai diventare “persone”, per cui resteranno sempre a livello di “cose”.

     “Gli umani hanno intelligenza, la

    capacità di adattarsi, l’immaginazione e l’emotività, uno standard molto alto

    da raggiungere e imitare”, dichiara Sophia. L’umanoide quindi afferma di ambire

    a possedere queste capacità. Avrà mai una coscienza?

    Siccome la percezione della realtà come l’ha Sophia consiste esclusivamente

    nei dati digitali, lei non ha mai il contatto con il mondo come lo hanno le

    persone umane. Quando il robot pronuncia parole, non le mette quindi in

    relazione con il mondo esterno a lei. A maggior ragione non può riferirsi a sé

    stessa, interrogarsi sulla propria “vita”, su ciò che è “vero” e “buono”, come

    fanno gli esseri umani. Infatti, quando Sophia decide e agisce, lo fa sulla

    base di mappe che contengono i “dati” del mondo: conosce quindi solo una

    codificazione della realtà, che non può mai essere del tutto completa, perché

    la realtà è sempre più complessa della capienza di qualsiasi macchina

    intelligente. La coscienza umana, al contrario, non pretende di essere

    “perfetta” nel conoscere e nell’agire, ma sa di stare veramente in relazione alla realtà e a sé stessa.

    Questa relazionalità diretta viene anche chiamata “intenzionalità”. Il robot

    non possiede la possibilità di riflettere sul mondo e su sé stesso: quindi non avrà

    mai coscienza.

    Proprio questo aspetto che la

    mente umana possiede intenzionalità e il computer no, viene approfondito dal

    filosofo americano John Searle. La capacità del computer di eseguire una

    procedura non implica -come spiega Searle- la semantica, il fatto che la

    macchina sappia che cosa sta facendo. Sophia è così? Sa fare ma non ha piena

    consapevolezza delle sue azioni?

    Infatti l’intenzionalità significa

    anche questa seconda cosa. Ciò che intende Searle viene verificato anche da un

    semplice test, chiamato Winograd Schema Challenge: il computer davanti alla semplice frase «Non posso abbattere la

    pianta con l’ascia; è troppo piccola» non riesce a rispondere alla domanda «Che

    cos’è troppo piccola, la pianta o l’ascia?». Mancando di capacità semantica,

    l’IA che senz’altro supera la mente umana in tutti i compiti “quantitativi”, proprio

    in questi semplici casi è costretta a indovinare. In altre parole, il computer

    combina segni linguistici secondo determinate regole, ottenendo risultati

    sempre migliori, specialmente quando pensiamo ai programmi di traduzione, ma

    non comprende che cosa dice e a che

    cosa riferisce con le parole. Mentre l’IA affronta la

    realtà in modo solo quantitativo, il cervello umano eccelle nell’avere l’intenzionalità.

    Searle, sfuggendo da una prospettiva dualista

    cartesiana, asserisce che la coscienza è una caratteristica fisica degli

    organismi dotati di sistema nervoso: la coscienza è causata dal cervello, ma

    non si identifica con l’attività del cervello. Sophia pensa ma non ha un corpo

    umano. Quel è il valore del corpo umano in rapporto all'essere una persona? E

    cosa sei, se non hai un corpo umano?

    Questa intenzionalità di cui abbiamo parlato, la

    mente umana ce l’ha soltanto in quanto possiede un corpo biologico, perché solo

    esso costituisce il necessario contatto diretto con la realtà e quindi la

    capacità di potersi riferire direttamente a qualcosa. Come abbiamo visto, solo

    tale riferimento dà significato alle parole e all’agire. Ammettiamo che Mary conosca

    tutte le informazioni su cosa significa “vedere colori”, ma viva in una casa in

    cui non esistono colori. Fino a quando non esce dalla casa, non saprà mai come è vedere i colori. Ecco

    l’importanza del nostro corpo per ogni tipo di esperienza umana che non è mai

    riducibile all’insieme di dati di cui può disporre un’IA, ricavandone

    imitazioni sorprendenti e addirittura perfezionamenti del pensiero e

    dell’azione umana.

     “Farò del mio meglio per creare

    un mondo migliore”, assicura Sophia in una delle sue interviste. Robot come

    Sophia potrebbero essere usati -ad esempio- per far compagnia agli anziani o

    per sostituire il personale impiegato in lavori ripetitivi, in un futuro anche

    in campo sanitario. Quali sono i rischi e le performance? 

    Lo stesso ragionamento sulla differenza dell’“esperienza umana” da quella

    del robot umanoide vale  nel campo morale

    delle relazioni tra le persone, a maggior ragione quando si tratta di rapporti

    di fiducia e di cura: ammettiamo che un assistente di cure (robot) uccida

    per sbaglio un paziente, perché gli mancava l’informazione che invece della

    medicina gli dava veleno, ed esprima dispiacere per la morte del paziente.

    Siccome si tratta di un robot, non esiste nessuna possibilità di giudicare

    moralmente questa situazione o di attribuirgliene responsabilità: semplicemente

    gli “mancava” un’informazione, e il dispiacere è solo la reazione che esso ha

    imparato a mostrare in tali casi. Certamente

    anche per il robot sarebbe meglio se il paziente non fosse morto perché

    riceverebbe un feedback positivo, ma

    non gli è possibile giungere a un giudizio morale (“di coscienza”) sul proprio

    agire. Sebbene, riguardo al settore della cura delle persone manchi ai

    robot il senso della responsabilità e dell’empatia, si colloca proprio qui uno

    degli sbocchi possibili dell’IA per una società sempre più anziana. Perciò, mentre

    nei lavori ripetitivi non si pongono questi problemi morali, sarà necessario

    trovare delle regole e legislazioni precise per l’utilizzo dell’IA in lavori in

    cui i robot entrano in contatto diretto con delle persone. Nei lavori ripetitivi, l’IA può essere considerata “mezzo tecnologico”,

    mentre nei lavori di assistenza di persone essa assume una vera e propria agency verso le persone. Un ulteriore motivo per l’introduzione di tali regole

    e limiti sta nel fatto che della persona assistita sono coinvolte dimensioni sensibili

    ed emozionali. Ma come si vede non solo nel caso di Sophia ma anche nel film Ex Machina del 2015, quando i robot riescono

    a imitare le emozioni umane e a leggere le espressività degli esseri umani con cui

    interagiscono, ciò è sempre il risultato di Big Data, per cui tali emozioni e interazioni non saranno mai espressioni spontanee in riferimento a qualcosa: non hanno significato.

    Stiamo andando nella direzione di quello che l’autore americano Raymond

    Kurzweil preconizza nel suo libro futuristico del 1999 “The age of Spiritual

    Machine” e nel successivo lavoro dal titolo “La singolarità è vicina”?

    Da Prometeo, passando per la figura medievale di Golem fino a Frankenstein,

    il sogno di creare esseri intelligenti e dotati di tutte le capacità umane,

    inclusa la coscienza, accompagna l’umanità. E come si vede nel film Matrix,

    oggi questo desiderio porta all’idea di oltrepassare con una sorta di

    “evoluzionismo tecnologico” l’umano in una sfera transumana dell’IA. In questa

    prospettiva, l’era delle macchine spirituali sarebbe il punto di arrivo, del

    resto previsto dall’autore Raymond Kurzweil nel suo libro futuristico per il

    vicino 2045: mentre lo “svantaggio” dell’intelligenza umana starebbe nell’essere

    ancora legata al corpo imperfetto, soggetto alle sue debolezze e infine alla

    morte, l’IA la supera -in questa visione- nella costituzione di macchine

    spirituali, infallibili e immortali. Tale stadio della realizzazione di un’IA

    “forte” (cioè pienamente sostituente l’intelligenza umana) egli lo chiama la

    “Singolarità”. Ciò su cui Kurzweil non riflette, è proprio che in questo modo

    tali “macchine spirituali” non superano ma perdono tutto ciò che davvero rende

    l’uomo – nella sua “singolarità” incorporata – la “corona” della creazione:

    libertà, autodeterminazione, la capacità di fare scelte morali e di assumersi

    la responsabilità, la capacità di perdono ecc. Tutte queste perfezioni le

    possiede lo spirito umano proprio perché non è “artificiale” ma risiede in un

    corpo biologico.

    L’IA forse aspira alle “decisioni perfette”, ma il carattere morale delle scelte e decisioni umane non sta nella “perfezione” ma nella capacità di ponderare ragioni e motivi dell’agire, cercando di realizzare il bene e di evitare il male. In altre parole, mentre l’imperativo dell’IA è l’ottimizzazione, quello degli esseri umani è la “responsabilità”. Nella menzionata prospettiva di Kurzweil, tutto dipende da come si definisce lo “spirito”: se, sulla base di ciò che abbiamo appena detto, chiamiamo “spirito” intelligence with reason, allora l’IA come intelligence without reason non potrà mai inaugurare un’«età delle macchine spirituali».

    https://youtu.be/NMuukB-6QWw

    News correlate