INTELLIGENZA ARTIFICIALE: SERVIRÀ UNA REDISTRIBUZIONE DI RISORSE

Si perderà più lavoro di quanto ne potremo creare: la politica e le aziende la dovranno compensare. Se ne è parlato all’incontro CESMAL Intelligenza Artificiale: unire etica e intelligenza per affrontare le sfide degli scenari complessi

di Maurizio Ermisino

«Noi siamo l’elemento umano nella macchina. E siamo liberi sotto alle nuvole. Noi siamo l’elemento umano nella macchina. E ci facciamo del male per abitudine”. Così cantava qualche anno fa Lorenzo Cherubini, in arte Jovanotti. E sono parole che sono risuonate spesso nella nostra mente ascoltando le interessanti riflessioni emerse dall’incontro Intelligenza Artificiale: unire etica e intelligenza per affrontare le sfide degli scenari complessi organizzato da CESMAL, Centro Studi sul Management ed il Lavoro ETS nell’ambito de I mercoledì del lavoro, una serie di appuntamenti dedicati ai cambiamenti del mondo del lavoro nell’era del digitale. Si è provato a rispondere a una domanda non da poco: l’Intelligenza Artificiale è un’opportunità o un pericolo? Andrà a finire come in Terminator, con le macchine che ci domineranno, o come in Matrix, in cui lo faranno senza che nemmeno ce ne rendiamo conto? Oppure, come sentiamo dire oggi, ci ruberanno il lavoro (che forse è ancora peggio)? Le risposte a queste domande sono meno banali di quello che si possa pensare. Tanto che, alla fine, ci è venuto in mente di far scrivere questo articolo a Chat GPT. Attenzione, quindi: questo potrebbe essere un articolo generato da un’Intelligenza Artificiale.

Intelligenza artificiale: dominarla per non esserne dominati

Intelligenza artificiale
A destra nella foto Antonio Votino, presidente CESMAL

L’ Intelligenza Artificiale è «un nuovo tipo di intelligenza, che supera quella galileiana, un nuovo metodo scientifico», spiega Mauro Antico, Chief Research & Innovation Officer di Philmark group. «Supera il modello matematico, va per associazioni. Usiamo un’enorme potenza di calcolo per tirare fuori cose che non riuscivamo a fare. Ma la dobbiamo dominare, altrimenti ne saremo dominati». Se non solo di dominare, si tratta prima di tutto di guidare. «Con le AI sicuramente troveremo le soluzioni a tante malattie, ma sempre con il discernimento del dottore». E si tratta soprattutto di istruire. «Tutte le AI guardano al passato, vivono nel passato, non provano il futuro» spiega Antico. «Le macchine stanno iniziando ad addestrarsi su dati generati da loro stesse». Ma tutto dipende da noi, dall’uso che ne facciamo. Pensiamo a Oppenheimer. «L’energia nucleare è fisica» commenta Antico. «Poi l’uso che ne fai, militare o civile, dipende da noi. Nel film Truman dice allo scienziato: nessuno ricorderà che tu hai creato la bomba, ma si ricorderanno di me che l’ho lanciata. Che l’AI possa raggiungere l’autocoscienza e distrugga l’umanità è comunque un’ipotesi molto lontana».

La macchina non è in grado dire è bello o è brutto, l’uomo sì

 L’uomo ha sempre cercato di capire la realtà: prima in modo rudimentale poi si è passati alla statistica, la nostra prima sfera di cristallo, poi abbiamo iniziato a creare una rete neurale, perché è così che chiamavamo le AI, come ci ricorda Luca Tamburrano, Lead Solution Engineer in Qlik for MEA. «La prima AI era quella predittiva, in grado di predire il futuro» spiega. «Poi si è passati all’intelligenza prescrittiva, alla prescrizione: Netflix o Spotify, quando ci presentano dei suggerimenti di contenuti, o la playlist, fanno questo; Spotify ha capito completamente i miei gusti musicali. Dalla prescrittiva siamo passati all’intelligenza generativa. Quando ho visto Chat GPT non pensavo nella vita di riuscire a vedere una macchina creativa, in grado di generare dei contenuti che non erano presenti prima». La macchina, allora è un’artista? «Non è intelligente, fa quello che noi le diciamo di fare» riflette Tamburrano. «Siti come Midjourney generano immagini a partire da una stringa di testo: la macchina non è in grado dire è bello o è brutto. L’uomo sì, e la macchina in futuro apprenderà quello che è bello e brutto dall’uomo e sarà in grado di deciderlo».

L’algoritmo è lo specchio di ciò che siamo

I suggerimenti che ci vengono dagli algoritmi, da Spotify o Netflix, sono gli stessi che bloccano i contenuti sui social media, che decidono cosa è lecito pubblicare. Luca Tamburrano ci racconta la storia di un’influencer di Instagram che aveva appena avuto un bambino e aveva pubblicato una foto con delle nudità insieme al figlio. L’algoritmo, che funziona con un’AI, ha declassato il contenuto e non è stato visibile. Questo caso ha aperto il discorso sui bias delle reti. «Si tende a delegare le scelte sui contenuti a paesi che hanno un loro concetto della donna, che deve rimanere coperta» spiega Tamburrano. «Ci sono degli umani che dicono se questa foto è sconcia e no, e abbiamo algoritmi che vogliono vedere la donna coperta. Lo specchio di quello che siamo noi lo trasferiamo nell’algoritmo». «Ma sono delle black box» aggiunge. «Non siamo in grado di sapere il perché la macchina ha detto a una clinica che il paziente può avere o no una malattia. O a quella banca che può o meno concedere un mutuo a quel dato cliente». «L’apocalisse non è tanto fantascientifica. La tecnologia potrebbe portarci alla fine, ma se, in quanto esseri umani, la controlliamo continuamente, possiamo avere un futuro roseo».

AI Act, un dispositivo importante

Intelligenza artificiale
Chiriatti: «La scienza è neutra. Tutto dipende dai valori con cui usiamo la tecnologia»

Controllo è una delle parole che nell’incontro organizzato da Cesmal si è sentita nominare più spesso. Andrea Scribano, autore del libro Intelligenza Artificiale. Arte e Scienza nel Business (Il Sole 24 Ore, 2023), ha parlato proprio di etica e controllo. «Etica è un concetto non univoco» ha spiegato. «Ho fatto l’esperimento di chiedere a ragazzi e professionisti che cosa fosse l’etica e non ho avuto la stessa risposta. In India o in Arabia l’etica è diversa da noi. Lo è anche in America, pensiamo al possesso di armi. Ma la fiducia in un controllo delle AI viene dall’approvazione recente, a livello europeo, dell’AI Act. «È un dispositivo importante» commenta Scribano. «Obbliga a opportuni livelli di controllo: ci dice quali rischi un dispositivo di AI può avere in generale e predispone adeguati strumenti di controllo. Questo mi dà tranquillità, anche se gli scenari apocalittici, come la storia ci insegna, non sono escludibili, perché c’è sempre chi può utilizzare gli strumenti in modi non consoni».

In azienda l’intelligenza artificiale si utilizza dove genera un valore

Andrea Scribano, vista la sua esperienza, è abituato a vedere la questione delle Intelligenze Artificiali in ottica business. Che rapporto hanno le aziende con le AI? «In azienda l’AI si utilizza dove genera un valore» spiega. «Soprattutto nel caso in cui l’AI viene creata in ottica aziendale. La uso non solo dove ho del valore, ma soprattutto dove ho dei dati che mi consentono di far funzionare quell’algoritmo con il valore. Se ho dei dati, i cosiddetti dati di prima parte, li utilizzo. Se non li ho devo capire come ottenerli». «Sull’utilizzo dei dati vedo meno i rischi», continua, «ma sicuramente abbiamo davanti un percorso per cui avere consapevolezza di come i dati personali vengano utilizzati, sia per quanto riguarda l’esperienza dell’utente, sia per migliorare i processi interni dell’azienda».

Molti lavori si perderanno, ma forse nasceranno opportunità di lavoro migliori

A proposito di aziende, Stefano Cera si occupa di formazione: è un trainer esperienziale, coach e speaker radiofonico. E ci ha raccontato il suo incontro con le AI generative. «Ho cominciato a vedere come Chat GPT si occupava dei temi di cui mi occupo io» ricorda. «Mi chiedevo se ci fosse un sistema che organizzasse da zero le presentazioni con le immagini. L’ho messo alla prova dicendogli che dovevo organizzare dei corsi. È una delle cose più intelligenti che ho fatto. Le AI mi hanno fornito strumenti utili come input alla progettazione. Prima ci mettevo molto più tempo. Non credo che l’AI possa togliermi il lavoro, anzi spero che verrà implementata ulteriormente. È vero che probabilmente molti lavori si perderanno, ma forse nasceranno opportunità di lavoro migliori».

La tecnologia dipende dai valori con cui la usiamo

Intelligenza artificiale
Scribano: «Etica è un concetto non univoco, ma la fiducia in un controllo delle AI viene dall’approvazione recente, a livello europeo, dell’AI Act, che prevede adeguati strumenti di controllo sui rischi legati agli strumenti di AI»

L’AI, insomma, non è solo Terminator. È anche AI: Intelligenza Artificiale, L’uomo bicentenario, cioè il sogno segreto di avere le emozioni e la ricerca dell’identità. Che ci rubi o no il lavoro, forse l’AI può toglierci una parte di lavoro e darci la possibilità di sviluppare alte capacità e di andare oltre i nostri limiti. Se fosse come nel film di Spielberg, AI: Intelligenza Artificiale, la macchina potrebbe essere migliore dell’uomo perché sviluppa sentimenti che l’uomo non ha più. Ci sono cose molto utili che l’AI può fare. Chi si occupa di problemi apprendimento dei bambini ha scoperto che Chat GPT può essere usata per creare una versione semplificata di un testo e sta aiutando i bambini ad essere più autonomi. L’altro lato della medaglia è che può sostituirsi nello scrivere testi e componimenti a chi problemi di apprendimento non ne ha ma non ha voglia di scrivere. «Mettiamo che io usi Chat GPT per ingannare il professore» si chiede Massimo Chiriatti, Tecnologo e Dirigente informatico, Chief Technology & Innovation Officer di Lenovo Italia. «Ho un esercizio e non lo so fare, così chiedo a Chat GPT di fare un esercizio per me. Ma si può usare anche in modo diverso: alcuni studenti si fanno interrogare da Chat GPT, si preparano meglio grazie alle domande che fa Chat GPT e imparano di più». «La scienza è neutra, la tecnologia non è né positiva né negativa e neanche neutra» conclude. «Dipende dai valori con cui l’abbiamo disegnata, dipende dai valori con cui la usiamo».

Posti di lavoro: servirà una redistribuzione delle risorse

Ci saranno lavori che spariranno, questo è certo. E i primi a farlo saranno quelli tecnici, quelli dei programmatori. Forse ne nasceranno altri. Ma, attenzione, il sistema non si autoregolerà da solo. «È vero che si creeranno nuove opportunità di lavoro» è l’importante riflessione di Luca Tamburrano. «Ma non basterà per bilanciare, per avere altre risorse, per alimentare il benessere. Il mondo aziendale per produrre quello di cui l’uomo ha bisogno deve avere disponibilità di certe risorse e un certo sforzo umano. Adesso può utilizzare molto meno capitale umano. Ma le persone che vengono lasciate fuori devono essere compensate. Questo plusvalore per le aziende dovrà essere in qualche modo redistribuite». «Non è un concetto socialista» continua Tamburrano con un sorriso. «L’ho chiesto a Chat GPT: mi ha risposto che non è vero. In altre ideologie si parla di redistribuzione. Ci stanno dicendo che domani cambieremo tutti lavoro. È vero che ci sarà perdita di lavoro più di quanto ne potremo creare. Allora ci vorrà un supporto, che deve arrivare dalla politica, che lo dovrà riportare alle aziende. Che dovranno fare questa redistribuzione».

Immagine di copertina: Jernej Furman

INTELLIGENZA ARTIFICIALE: SERVIRÀ UNA REDISTRIBUZIONE DI RISORSE

INTELLIGENZA ARTIFICIALE: SERVIRÀ UNA REDISTRIBUZIONE DI RISORSE