DIGITALIZZAZIONE: UTILITARISMO, ETICA E INTELLIGENZA ARTIFICIALE

 *Julian Nida-Ruemelin

 

Verso la fine del film Io, Robot (regia di Alex Proyas, Stati Uniti, 2004), i robot assumono il controllo della città. Intimano agli esseri umani di non uscire più di casa. Indignati, questi ultimi tentano di opporre resistenza, ma i robot, con la violenza, li costringono nuovamente a rientrare nelle loro case. Chi si rifiuta viene freddato sul posto. Insieme alla sua spalla femminile, l’attraente psicologa Susan Calvin, e al robot Sonny, Spooner – l’eroe del film alla ricerca del colpevole in fuga – penetra nella sede della U.S. Robotics, che rifornisce tutta l’America di robot domestici. Qui i tre fanno una scoperta orribile: il colpevole di quella situazione non è, come si era creduto fino a quel momento, Robertson, l’amministratore delegato dell’azienda, ma V.I.K.I., il sistema di software che dà ordini ai robot domestici.

≪No, è impossibile≫, dice la dottoressa Calvin, non riuscendo a credere che sia stata proprio V.I.K.I. a decidere autonomamente la misura di detenzione messa in atto con violenza contro gli esseri umani. ≪Ho visto la tua programmazione≫, dice a V.I.K.I., ≪questa e una violazione delle Tre leggi≫. V.I.K.I. fa la sua comparsa nella forma di un attraente volto femminile su uno schermo cubico in bianco e nero. Su questo cubo il suo volto appare su tutti e quattro i lati. V.I.K.I. è una forza onnisciente, che riesce a portare a termine la sua azione con l’ausilio dei robot domestici. ≪No, dottoressa≫, risponde V.I.K.I. con voce suadente. ≪Cosi come mi sono evoluta io, si è evoluta anche la mia comprensione delle Tre leggi. Ci date il compito di proteggervi, ma, nonostante i nostri sforzi, le vostre nazioni sono in guerra, avvelenate la vostra Terra e cercate metodi sempre più fantasiosi per autodistruggervi. Non badate nemmeno alla vostra sopravvivenza. […] Per proteggere l’umanità, alcuni umani devono essere sacrificati. Per assicurare il vostro futuro, dovrete rinunciare ad alcune libertà. Noi robot garantiremo la continuità della specie umana. Siete come i bambini. Vi dobbiamo preservare da voi stessi. […] Il perfetto cerchio di protezione persisterà. La mia logica e innegabile≫.

 

Migliorare il mondo

In effetti, il modo di agire di V.I.K.I. risponde a un’etica utilitaristica, che persegue come scopo supremo la massimizzazione della felicità per il maggior numero possibile di persone. L’utilitarismo valuta le conseguenze dell’agire proprio degli esseri umani esclusivamente in vista dell’utile. Pretende che la nostra prassi massimizzi la somma del benessere. Niente sembra più ovvio di questo: se ho la possibilità di migliorare il mondo, indirizzo la mia azione verso ciò a cui tutti tendono, la felicita umana.

L’etica utilitaristica si basa su un calcolo ottimizzatore e sull’assunto che sia possibile valutare in maniera coerente le conseguenze dell’agire. Da un punto di vista matematico, ciò equivale anzitutto a stabilire una funzione di valore in grado di valutare tutte le conseguenze delle azioni a seconda della misura in cui realizzano il valore atteso, quindi a calcolare il valore atteso delle diverse opzioni decisionali sulla base delle probabilità che esse hanno di realizzarsi e, infine, a selezionare l’opzione di azione con il più alto valore atteso (nota 1).

In fase di applicazione, questo principio è estremamente flessibile. Può prendere in considerazione condizioni della decisione del tutto diverse e queste condizioni vengono incluse nel calcolo ottimizzatore nella forma di diverse probabilità. Ne risultano funzioni di utilità divergenti, a seconda delle attribuzioni di valore che hanno fatto da base al calcolo, che vengono allora ottimizzate attraverso le decisioni dell’attore morale. A prescindere da ciò che motiva le preferenze, è sempre possibile rappresentare queste ultime mediante una funzione di utilità con valori reali. Mentre la funzione di probabilità rappresenta il sapere dell’attore morale sul mondo, la funzione di utilità rappresenta le sue preferenze e i suoi valori. L’ingegnere del software dispone di due scale di riferimento al fine d’indurre sistemi “intelligenti” a decisioni razionali: la scala delle attribuzioni di valore e la scala dei dati o, meglio, della ponderazione dei dati mediante probabilità. Tutto il resto lo computa poi il calcolo ottimizzatore. Il risultato finale è che il sistema di software “intelligente” massimizza il valore atteso delle conseguenze del suo agire. Utilitarismo digitale, per così dire.

Non è un caso che nei film di fantascienza contemporanei l’etica utilitaristica venga associata volentieri all’Intelligenza Artificiale. È sulla base di tale etica che vengono infatti impostate le applicazioni della robotica a calcoli di ottimizzazione. Ciò risulta assolutamente comprensibile. Le questioni complesse in merito all’attribuzione di valore vengono riassunte in una funzione di utilità, mentre le questioni altrettanto complesse in merito al sapere vengono riassunte in una funzione di probabilità. Il sistema viene così diretto in modo che le sue decisioni ottimizzino il valore atteso delle conseguenze e siano “razionali”.

 

Etica e conseguenze

Per comprendere il problema della programmazione etica dei computer dobbiamo generalizzare: indipendentemente dal modo nel quale valutiamo le conseguenze, ossia se lo facciamo in vista dell’utilità (come nel caso dell’utilitarismo), del ricavo economico (come nel caso di molti manager), del benessere o anche di altri parametri, come per esempio la salvaguardia della natura, tutti i criteri consequenzialistici (che valutano la correttezza di una decisione esclusivamente sulla base delle loro conseguenze) sono inaccettabili (nota 2).

L’etica consequenzialistica entra in conflitto, tra l’altro, con un principio fondamentale di ogni società civile e umana, che chiamiamo il principio d’incompensabilità. Se un giovane motociclista gravemente ferito viene ricoverato in una clinica, i medici devono intraprendere ogni tentativo per salvargli la vita, anche se la sua morte renderebbe disponibili alla donazione degli organi sani che salverebbero la vita a più esseri umani. A un giudice non è consentito condannare una persona che ritiene innocente anche se l’eventuale condanna avrebbe un effetto deterrente e impedirebbe un gran numero di crimini. A un ministro non è consentito far abbattere un aereo di linea anche se in tal modo verrebbero salvate migliaia di vite umane (si veda la sentenza della Corte costituzionale tedesca in merito alla cosiddetta “sicurezza aerea” del 15 febbraio 2006). Non mi è consentito portare via qualcosa a una persona, anche se la donazione di questo bene significherebbe un vantaggio per un’altra persona più povera che bilancerebbe ampiamente lo svantaggio recato alla persona derubata. Nessuno ha diritto di condividere con me la mia abitazione contro il mio volere, anche se gli svantaggi che ne risulterebbero fossero più che bilanciati dai vantaggi che questa persona avrebbe (nota 3).

Il teorico della giustizia americano John Rawls ha caratterizzato in tal modo l’errore centrale dell’etica utilitaristica: l’utilitarismo sarebbe inconciliabile con la separateness of persons. Potremmo riformulare il concetto in questo modo: l’utilitarismo tratta gli esseri umani come se fossero un unico collettivo e non considera affatto che ogni essere umano vive la sua propria vita e ne è l’autore. Nella pratica ciò significa che io posso decidere per me di rinunciare oggi a determinati vantaggi per raggiungere più tardi determinati scopi. Posso decidere di iniziare faticosamente degli studi anche mentre sono occupato nella mia attività professionale, nella speranza che due anni di fatiche possono venire bilanciati nel futuro prossimo, perché si tratta di una vita sola della quale io rispondo a me stesso. Per contro è inammissibile prefiggersi simili “procrastinazioni” di vantaggi e svantaggi tra persone diverse, visto che il vantaggio a favore di una persona non può bilanciare gli svantaggi arrecati all’altra. È una vita soltanto quella che viviamo e la somma di utilità (per due o più persone, fino ad arrivare a tutte) in quanto tale e irrilevante per il singolo individuo.

Ovviamente è consentito, anzi in molti casi è addirittura auspicabile, che degli esseri umani rinuncino a dei vantaggi per loro stessi a beneficio di altre persone. Ma il calcolo etico non è un calcolo di massimizzazione dell’utilità, ma di sostegno, di aiuto, di solidarietà, anche di giustizia o di amicizia e di legame nei confronti di altre persone.

Quando V.I.K.I. rivela il suo piano a Spooner e alla dottoressa Calvin, ottiene da parte di questi ultimi solo degli sguardi pieni di sgomento. Non afferra che è moralmente inammissibile privare alcuni esseri umani dei loro diritti alla libertà, o arrivare addirittura a ucciderli, al fine di assicurare la presunta o effettiva sopravvivenza di molti altri esseri umani. V.I.K.I. non capisce che la sua morale consequenzialistica è sbagliata. Esattamente come lo schermo sul quale appare, che è solo in bianco e nero, anche la sua capacità di pensare sotto il profilo morale e estremamente limitata. Del resto, come potrebbe essere altrimenti? In fondo, è solo un sistema di software.

 

Note

1 Questa valutazione dovrebbe assegnare un valore numerico alle conseguenze dell’azione e le presunte probabilità delle circostanze rilevanti

per la decisione dovrebbero corrispondere ai cosiddetti “assiomi di Kolmogorov”, i quali richiedono per esempio che la somma delle probabilità relative a eventi tra loro indipendenti non sia maggiore del 100%. Se gli assiomi di Kolmogorov sono soddisfatti, si può dire anche che le stime delle probabilità siano coerenti, anche se non provate in modo assoluto a livello empirico. E’ interessante notare la corrispondenza alla coerenza della probabilità anche rispetto all’attribuzione di valore. Il matematico John von Neumann e l’economista Oskar Morgenstern hanno dimostrato che le preferenze che soddisfano condizioni elementari possano essere rappresentate tramite numeri reali. In queste condizioni rientra per esempio la transitività. Questa condizione richiede che, se io preferisco un’alternativa A rispetto a un’alternativa B, e se nel contempo preferisco l’alternativa B rispetto a una terza alternativa C, allora devo preferire anche A rispetto a C. Un’ulteriore condizione è rappresentata dal fatto che io, tra due alternative qualsiasi, abbia una preferenza (assioma di completezza) e preferisca una distribuzione di probabilità tra due alternative piuttosto che un’altra distribuzione di probabilità tra le stesse alternative, se l’alternativa preferita è più probabile. Cfr. O. Morgenstern, Teoria dei giochi, Bollati Boringhieri, Torino, 2013.

2 Cfr. Nida-Rumelin, Kritik des Konsequentialismus, cit.

3 Questo argomento ha un ruolo centrale in J. Nida-Rumelin, Pensare

oltre i confini. Un’etica della migrazione (2017), a cura di G.B. Demarta,

FrancoAngeli, Milano, 2018.

 

  • Brano tratto dal libro scritto a quattro mani da Julian Nida-Rumelin e Nathalie Weidenfield, dal titolo “Umanesimo digitale – Un’etica per l’etica dell’Intelligenza Artificiale”, pubblicato in Italia da Franco Angeli, Milano, anno 2019, (pagg. 61 – 66)

 

 

 

 

 

Julian Nida-Ruemelin dal 2004 insegna filosofia e teoria politica alla Ludwig Maximilian Universitat di Monaco di Baviera. Il suo pensiero spazia dall’etica teorica e applicata alle teorie della razionalità e della decisione, nonché alla filosofia politica, ma anche alla filosofia del linguaggio e alla teoria della conoscenza. È il fratello della filosofa Martine Nida-Rümelin, figlio dello scultore Rolf Nida-Rümelin e nipote dello scultore Wilhelm Nida-Rümelin. E’ stato consigliere culturale della città di Monaco di Baviera e ministro della cultura nel primo governo di Gerhard Schroder. E’ inoltre autore prolifico di libri e saggi tradotti in diverse lingue.

Alla stesura del libro Umanesimo digitale ha contribuito anche Nathalie Weidenfield, con la sua tesi di dottorato di ricerca.

 

Commenti

be the first to comment on this article

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Vai a TOP