Non avrAI altro Dio: l’intelligenza artificiale

di Silvana Carcano
Non avrAI altro Dio

Parlare di intelligenza artificiale e di intelligenza aumentata richiederebbe lo spazio di numerosi libri, specialmente con una giornalista come Nicoletta Prandi, che possiede una vasta competenza su questi argomenti, conoscendo numerose sfaccettature e casi studio.

In un’intervista breve come la mia, troverete solo alcuni accenni, per ulteriori approfondimenti vi invito ad ascoltare i podcast di Nicoletta, intitolati “Non avrAI altro Dio”, o a leggere il suo ultimo libro, “Finché chip non ci separi”.

 

Nicoletta, il titolo del tuo ultimo libro è intrigante. Potresti raccontarci perché hai scelto di trattare questo tema attraverso podcast e libri?

Tutto è cominciato da una riflessione: nei mesi scorsi, con il rilascio di ChatGPT, ho notato che ci siamo posti la domanda sbagliata: «Quando l’AI sarà più intelligente di noi?». È importante, invece, sottolineare che saremo noi a diventare ‘portatori sani’ di algoritmi, ad esempio, attraverso l’impianto di chip o l’uso di device di potenziamento umano che funzionano anche in WiFi. Per questo motivo, il prossimo passaggio sarà l’intelligenza aumentata. Rispetto a quella artificiale, che possiamo considerare come un potenziatore esterno, come una Ferrari, è una vera e propria sinergia tra l’intelligenza umana e quella delle macchine. Pensa, ad esempio, all’utilizzo di fasce cerebrali per potenziare le nostre capacità, già in vendita su Amazon. Questi prodotti sfuggono alle regolamentazioni in quanto sono venduti come prodotti di benessere. Le applicazioni neurotecnologiche più d’avanguardia, oggi, permettono già di manipolare il nostro cervello. Il nostro spazio mentale, così, diventa accessibile non solo alla scienza, ma anche alle aziende e, potenzialmente, anche ai governi. La complessità di questi scenari mi ha spinto ad approfondire l’argomento.

Partiamo da un aspetto poco discusso: come si collocano le sette principali società dell’AI – OpenAI, Microsoft, Google, Meta, Anthropic, Amazon e Inflection – in termini di sostenibilità aziendale e dei loro prodotti? O meglio, possiamo chiederci quale impatto socio-ambientale sia stato generato per portare l’AI sul mercato? Paghiamo un prezzo alto per avere l’IA?

Tema a me molto caro e totalmente trascurato dai media. Innanzitutto, fammi dire che spesso le informazioni che arrivano all’opinione pubblica sono quelle che vengono diffuse dalle aziende stesse tramite i loro comunicati stampa. E i media, tendenzialmente, le fanno circolare senza una valutazione o un pensiero critico.

Per quanto riguarda gli impatti ambientali, poi, ti porto l’esempio dei consumi idrici: quelli di Microsoft e di Google sono aumentati fino al 35%, con un incremento annuale (tra il 2020 e il 2021) pari all’acqua contenuta in 2.500 piscine olimpioniche. Il consumo d’acqua è necessario per raffreddare i data center. In generale, sui consumi energetici le aziende tech non sono trasparenti.  Il regolamento europeo sull’AI imporrà trasparenza solo in modo limitato alle soluzioni più complesse di AI. Durante l’estate scorsa, in alcuni stati americani particolarmente siccitosi, le aziende hanno consumato il 25% dell’acqua potabile destinata alla collettività e i sindaci locali hanno imposto limiti di installazione di data center nelle loro città. Nonostante, quindi, l’AI sia altamente impattante, questo aspetto non viene ancora preso in considerazione dai consumatori. È fondamentale, quindi, che le persone si sveglino e inizino a usare il pensiero critico molto più frequentemente di quanto accade oggi. Tra l’altro, possiamo dire che iniziamo ad essere piuttosto consapevoli dell’impatto devastante a livello ambientale e sociale della filiera del “fast fashion”, o del settore alimentare con l’impatto degli allevamenti intensivi. Per quanto attiene all’IA, invece, spesso si accetta tutto senza nessuna analisi critica. Io trovo insopportabile la mancanza di consapevolezza e di informazioni su questo tema. Sasha Luccioni, ricercatrice sull’intelligenza artificiale, ha condotto uno studio per valutare il consumo di energia elettrica necessario a generare un’immagine tramite DALL-E: è pari a quella necessaria per caricare completamente uno smartphone.

In Italia, poi, sono praticamente l’unica a parlare del tema dei diritti umani in relazione all’AI. All’estero, i quotidiani affrontano ampiamente la questione e vengono organizzati convegni sullo sfruttamento dei diritti dei lavoratori. Ma non in Italia. Alcuni esempi: OpenAI, l’azienda creatrice di ChatGPT, ha impiegato centinaia di migliaia di lavoratori del sud e dell’est del mondo pagandoli meno di 2 euro all’ora per svolgere attività di etichettatura (o annotazione) per l’AI, ovvero per identificare quali contenuti sono da escludere nelle risposte degli utilizzatori. Questi lavoratori sfruttati e sottopagati sono stati esposti per ore a immagini terribili (come stupri, violenza, bestialità, degrado). Molti di loro hanno sviluppato disturbi post-traumatici e incubi notturni e nessuno li ha aiutati. Amazon ha costruito negozi senza cassieri, utilizzando la tecnologia Just Walk Out, sostenendo che i clienti potessero acquistare e pagare senza passare dalle casse (ma solo attraverso telecamere). In realtà, migliaia di indiani lavoravano in tempo reale, dall’altra parte del mondo, per il vero e proprio controllo, stipati in bunker degradati e sottopagati.

Scusa se insisto su questi aspetti. Ma queste società hanno valutato l’impatto dei loro prodotti rispetto ad aree di sviluppo umano? Ad esempio, rispetto agli sviluppi neurologici, lavorativi, di salute, geopolitici, etc.?

Mi fa piacere che si inizi a parlare di questo aspetto dell’AI perché, come dicevo, i consumatori non li considerano affatto. Ad esempio, a livello cognitivo, l’utilizzo di ChatGPT influenza indirettamente il nostro modo di concepire la scrittura. Alcuni studi hanno dimostrato che gli studenti che utilizzano l’AI generativa considerano lo scrivere un’attività esternalizzabile, un servizio da svolgere in outsourcing, e finiscono con il considerare gli studi umanistici poco importanti. Eppure, esprimerci correttamente ci permette di farci conoscere dagli altri e di assicurarci che il nostro messaggio venga compreso. Un altro esempio riguarda la svalutazione della proprietà intellettuale, culturale, artistica, musicale, ecc. Guardando all’ambito lavorativo, poi, pensiamo ai sistemi di monitoraggio dei lavoratori: promettono di aumentare la produttività, ad esempio attraverso il monitoraggio delle reazioni umane alle attività giornaliere e di capire, a fine giornata, se un lavoratore è stressato, felice, rabbioso, etc. Alcuni studi europei hanno dimostrato che questi sistemi causano una perdita di fiducia da parte dei lavoratori, un senso di profonda inutilità e un aumento delle dimissioni. Ti faccio l’ultimo esempio: alcuni chatbot introdotti da istituzioni e da agenzie governative sono stati rimossi per i danni causati da suggerimenti errati, soprattutto in tema di alimentazione.

Le sette sorelle delle aziende dell’AI hanno brillantemente gestito le informazioni con enormi operazioni di marketing, presentando le loro soluzioni come desiderabili. È, invece, urgente e necessaria un’informazione trasparente per agevolare il pensiero critico. Va detto che alcuni enti di controllo stanno cominciando ad agire: recentemente sono intervenuti su un’azienda di Sam Altman, che ha inventato una sfera orbitale per la scansione dell’iride e l’autenticazione biometrica delle persone. Questo sistema è stato utilizzato in Paesi del Terzo Mondo per eseguire scansioni senza il consenso informato delle persone coinvolte.

Nicoletta, quali strumenti culturali possono aiutarci a non essere sopraffatti dall’AI?

L’educazione critica è fondamentale. Iniziare a leggere fonti straniere può ampliare le nostre prospettive. Sai, io non sono una luddista, non sono contraria alla tecnologia, ma è importante evidenziarne le criticità per rendere questi sistemi più umani. Ad esempio, alcune applicazioni che sfruttano l’AI possono essere utilizzate per aiutare i diversamente abili a riacquisire funzioni perdute, addirittura per parlare, grazie alla lettura del pensiero.

Quali normative sono in vigore e in quali Paesi?

In alcuni Paesi si sta cercando di regolamentare l’AI, ma finora i risultati sono piuttosto limitati perché serve attendere che le norme entrino in vigore, come l’europeo AI Act. La Cina, che ci piaccia o no, è stata la prima a introdurre regolamenti in tema di AI. Sono molto restrittivi per tutelare i diritti d’autore (pensa alle canzoni generate dall’AI e generate da brani già esistenti, per le quali non vengono pagate le royalties). Di contro, però, limitano la libertà di espressione.

Chi si occupa del “sacro” sa bene che qualsiasi forma di idolatria porta a importanti problemi, soprattutto esistenziali. E, spesso, la tecnologia si colloca in una sfera che possiamo definire sacra: diventa un idolo per gran parte delle persone. Trovo saggia la tua decisione di intitolare i tuoi podcast “Non avrAI altro Dio”. Gli idoli, infatti, conducono alla morte.

Dobbiamo diventare attivisti e opporci alle aziende che sviluppano tecnologie in modo eticamente discutibile. Dobbiamo stabilire regole e limiti. È necessario fare un esame di coscienza a livello collettivo. Un ospedale pubblico, ad esempio, che voglia introdurre un chatbot sanitario dovrebbe avere l’obbligo di fare valutazioni preliminari approfondite a livello di costruzione tecnologica di quel sistema.

Nicoletta, mi piacerebbe parlare ore e ore con te di questa tematica, hai infiniti esempi su cui riflettere. Come dicevo, rimando ai tuoi podcast e al tuo libro. Ma prima di salutarti voglio che tu mi dica quale canzone associ a questa tematica.

“We Will Rock You” dei Queen. L’AI è rock, poiché squaderna i punti fermi dell’umanità. Ma è rock anche essere attivisti, così da affrontare le rivoluzioni portate nel mondo dall’AI.

Grazie Nicoletta!

 

 

VISITA IL SITO DI ETHYCON, IL PROGETTO DI SILVANA CARCANO.

Iscriviti alla community di rock’n’safe per ricevere contenuti esclusivi e inviti speciali ai nostri eventi!

Potrebbe interessarti

Lascia un commento