POSSIAMO FIDARCI DELLE INTELLIGENZE ARTIFICIALI?

Sempre più diffuse in ogni ambito della vita, hanno sempre più potere decisionale. Paolo Benanti, nel suo ultimo libro, pone domande e suggerisce risposte

Pochi, per ora, sanno che esiste una app per smartphone che può avvisare i medici o comunque il personale sanitario quando i pazienti corrono dei rischi. Nel North Carolina la si usa per i diabetici. «Se un paziente specifico comincia a sentirsi fiacco o a fare lunghe chiamate alla madre, un box verde che lo rappresenta su un display on line diventa prima giallo e poi rosso. Presto un infermiere lo chiamerà, per verificare se sta ancora prendendo i suoi farmaci». Lo racconta Paolo Benanti nel suo ultimo libro Le macchine sapienti. Intelligenze artificiali e decisioni umane (Marietti 2018).

Le intelligenze artificiali accompagnano le nostre vite e le rendono migliori. Oppure peggiori, in qualche caso. Ma soprattutto pongono alcune domande fondamentali, anche perché software e tecnologie ormai non solo agiscono, ma decidono: sono diventate machinae sapiens.

 

LE MACCHINE DECIDONO. Nel campo della salute e della medicina, ad esempio (e si pensi a tutto l’ambito che riguarda le tecnologie riproduttive), «questi algoritmi hanno la “responsabilità” di decidere chi verrà sottoposto all’attenzione del medico e chi no». Chi deve nascere e chi no. Chi è buono e chi è cattivo.

Pensiamo alla giustizia. Spiega Benanti che negli Stati Uniti, per aiutare i giudici a prendere decisioni, si utilizzano software per calcolare la percentuale del rischio che un soggetto possa commettere altri crimini in futuro. Ma un’agenzia di stampa indipendente, ProPubblica, ha scoperto che gli algoritmi sono fallaci: tra coloro che sono stati indicati come possibili recidivi, solo il 61% lo è diventato davvero. E questa fallacia è anche razzista, visto che i giovani neri più frequentemente vengono indicati come futuri criminali. La domanda è: le intelligenze artificiali ci faranno passare da una giustizia basata sui fatti commessi a una giustizia fondata su sospetto?

Oppure pensiamo al controllo dei cittadini. In Cina nel 2014 è stato pubblicato il “Progetto di Pianificazione per la Costruzione di un Progetto di Credito Sociale”. In pratica, un sistema di punteggio che misura «la fiducia nelle persone» e “classifica” i cittadini. Hai dei debiti? Giochi? Chi sono i tuoi amici? Quali tasse hai o non hai pagato? Dove sei stato? Tutti i tuoi dati vengono raccolti e contribuiscono a costruire il tuo citizen score, grazie al quale avrai il tuo posto in una classifica, che tutti possono vedere: anche chi deve accettare tuo figlio a scuola, o decidere se farti un prestito o se darti un lavoro. Grazie alle intelligenze artificiali il Grande Fratello ha avuto piena realizzazione?

 

intelligenze artificiali
Un’immagine di Paolo Benanti, tratta dal suo profilo Facebook

LA MORALITÀ ARTIFICIALE. Paolo Benanti, che insegna neuroetica, bioetica e teologia morale presso la Pontificia Università Gregoriana, in questo libro pone una serie di domande, e fa alcune proposte.

Quanto potere vogliamo e possiamo lasciare alle intelligenze artificiali? i loro processi decisionali, basati su computi statistici, sono davvero più affidabili di quelli umani, che tengono conto dell’esperienza? E le conseguenze di ciò che la macchina decide sono qualificabili moralmente? (ad esempio, un drone che in un’operazione militare uccida dei civili innocenti è responsabile di quelle morti? o qualcun altro lo è per lui?)

Il problema è così sentito che ormai si parla di artificial moral agent (AMA), per indicare «quel settore che studia come stabilire criteri informatici per creare una sorta di moralità artificiale nei sistemi di intelligenza artificiale».

 

UNA NUOVA MITOLOGIA DEGLI ALGORITMI. Un altro problema che le intelligenze artificiali ci pongono, però, è quello della conoscenza. Esse infatti producono una percezione  nuova e diversa, non solo del mondo, ma anche di noi stessi. Ad esempio, «non ci percepiamo e non viviamo più come entità isolate, quanto piuttosto come organismi informazionali interconnessi, o inforg, che condividono con agenti biologici e artefatti ingegnerizzati un ambiente globale costituito in ultima analisi dalle informazioni: l’infosfera».

Addirittura, le tecnologie hanno messo in crisi anche il metodo scientifico di conoscenza, tanto che, secondo Benanti, andiamo verso una nuova interpretazione “religiosa” della realtà, basata sulla mitologia degli algoritmi. Infatti «i nuovi guru dell’high tech e i profeti della Silicon Valley stanno creando una nuova narrazione universale, che legittima un nuovo principio di legittimità: gli algoritmi e i Big Data. Questa nuova narrazione, che è vera e propria fondazione di una nuova religione, questa mitologia del XXI secolo è definibile… dataismo».

 

UNA GOVERNANCE E UNA CULTURA ORGANIZZATIVA. Insomma, saranno sempre più le intelligenze artificiali a dire all’uomo che cosa è che cosa significa il reale? E quindi a determinarne le decisioni – o a prenderle al posto suo? Se questo è quello che succede, che cosa significa restarlo?

Da queste domande nasce la proposta di Benanti: serve un’etica delle intelligenze artificiali che le pensi non come avversarie, ma come cooperanti con la persona. Ma serve anche un governance internazionale e una cultura organizzativa – nelle aziende e negli enti che le inventano o le utilizzano – che permetta di mantenere il controllo e di evitare che diventino disumanizzanti. Il che significa anche cose molto concrete, ad esempio rendere trasparenti gli algoritmi.

______________________

inteligenze artificialiPaolo Benanti
Le macchine sapienti. Intelligenze artificiali e decisioni umane
Marietti 2018
pp. 156, € 15,00

 

 

 

 

 

Se avete correzioni o suggerimenti da proporci, scrivete a comunicazione@cesv.org

 

POSSIAMO FIDARCI DELLE INTELLIGENZE ARTIFICIALI?

POSSIAMO FIDARCI DELLE INTELLIGENZE ARTIFICIALI?