L’impatto devastante della I.A.

di Oddi Corrado

Contestare alla radice il dominio privato delle nuove tecnologie

Non sarà né intelligente, né artificiale, per ora, ma certamente inquieta, e non poco. Parlo, ovviamente dell’intelligenza artificiale, nello specifico quella generativa, che è stata rinominata “pappagallo stocastico”, nel senso che essa è in grado di costruire concatenazioni e accostamenti sensati tra le parole, partendo dalla mole enorme di dati a sua disposizione e si avvale di numerosi interventi prodotti da esseri umani (come vedremo dopo). È però capace di apprendere in proprio e mettere in atto comportamenti e decisioni “autonome”, al di fuori del controllo umano. In questo senso, siamo ben al di là di quanto finora avevamo considerato come la frontiera più “avanzata” dell’utilizzo delle tecnologie informatiche, quello rappresentato dalle piattaforme digitali delle grandi aziende hi-tech, a partire dalla Big Five (Google, Apple, Facebook, Amazon e Microsoft).

Esperienza e identità umana come merci
Come ha spiegato magistralmente Shoshana Zuboff ne “Il capitalismo della sorveglianza”, il prodotto di tali piattaforme sono le previsioni di comportamento degli utenti, tramite l’immissione dei loro dati, che vengono venduti agli inserzionisti di pubblicità. Non a caso esse continuano a mantenere l’accesso gratuito e ricavano la gran parte dei propri profitti dagli introiti pubblicitari. In buona sostanza, si colonizza l’esperienza e l’identità umana come beni da collocare sul mercato, come merci tra le altre.
Ora, con il passaggio all’Intelligenza Artificiale generativa, quella resa famosa da ChatGPT, nel momento in cui costruisce un’interazione diretta con le persone praticamente su qualsiasi argomento, si danno istruzioni ad altri dispositivi, si rafforzano sistemi di apprendimento automatico, si compie un ulteriore salto di qualità. Si può dire che si passa dal rubare l’identità umana alla possibilità di poterla plasmare. Basta dare uno sguardo sul suo funzionamento: essa è sostanzialmente in grado di dialogare e rispondere ai quesiti posti dalle persone, sulla base del fatto che i programmatori/ sviluppatori costruiscono algoritmi che fissano alcune regole e vincoli di base e, soprattutto, danno istruzioni sulla consultazione di un numero elevatissimo di dati, per far sì che l’Intelligenza Artificiale generativa produca risposte consone e coerenti. Quello che viene fuori, alla fine, è che siamo in presenza di un dispositivo che, in primis grazie al lavoro dei programmatori e degli sviluppatori, è in condizioni di veicolare una propria visione del mondo e che essa è sostanzialmente privatizzata, nelle mani dei programmatori e della proprietà da cui gli stessi dipendono.
Una visione del mondo che può essere facilmente manipolabile a seconda di quelle che sono le regole di base e ciò che si dà da leggere all’intelligenza artificiale. Una visione del mondo che è tendenzialmente conservatrice, nel senso che si alimenta di dati relativi a ciò che è già accaduto e che incorpora i pregiudizi in esso presenti. Per non essere troppo astratti, si può fare riferimento alle intenzioni di Elon Musk, il visionario e reazionario multimiliardario che, dapprima, per evidenti ragioni di bottega, ha fintamente messo in guardia dai rischi di un’accelerazione dello sviluppo dell’intelligenza artificiale e, ora, invece, annuncia la nascita di una propria intelligenza artificiale generativa, GROK, in fase sperimentale.
Forse rischio di esagerare ma, considerando l’adesione al trumpismo di Musk, non si può certamente escludere che lo stesso pensi di poterla utilizzare per propagandare contenuti fortemente orientati, magari facendo “mangiare” a essa le innumerevoli pagine di think tank e siti egemonizzati da una destra estrema, razzista, patriarcale e omofoba.

Assoluta supremazia
C’è, poi, un altro tema, assolutamente rilevante, che è quello relativo alla possibilità che l’I.A.
sfugga completamente al controllo umano. Basta prendere in considerazione una forma “debole” di intelligenza artificiale, quella orientata da obiettivi predefiniti e progettata per eseguire compiti singoli. Per esemplificare, è quella che interviene nei giochi di scacchi: anch’io mi diletto spesso a giocare e a perdere “contro il robot”. Del resto, è noto che l’intelligenza artificiale vince sempre e comunque anche contro i grandi maestri di scacchi: per loro non c’è nessuna possibilità di prevalere, neppure “per caso”; il divario è ormai incolmabile. Ma gli scacchi sono solo un esempio. Stessa assoluta supremazia dell’I.A. la ritroviamo nell’ancor più complesso GO, nella guida autonoma dei veicoli (ma anche nelle armi azionate da robot e droni), nel riconoscimento facciale e anche nelle attività di Borsa. Ora, già a questo livello, emergono problematiche assolutamente inedite e che pongono questioni molto rilevanti.
È sufficiente citare il grido d’allarme che, a più riprese, è provenuto dalla Banca d’Inghilterra, che ha individuato diverse tecniche di manipolazione dei mercati borsistici da parte dei sistemi che utilizzano l’intelligenza artificiale, come il fatto di potersi coordinare in modo autonomo con un’ altra attività di investimento, raggiungendo l’obiettivo, per entrambe, di guadagnare da questa strategia. Detto in altri termini, l’I.A. è lasciata interagire con l’ambiente per raggiungere il proprio obiettivo, solitamente la massimizzazione dell’investimento, senza, ovviamente, guardare in che modo questo viene perseguito, costruendo, per esempio, informazione fittizie sulle possibili quotazioni dei titoli anche con pratiche illegali.

Cosa succederà al lavoro?
Ci sono, poi, altre questioni fortemente critiche che lo sviluppo dell’AI si porta dietro. Una riguarda, senz’altro, il tema del lavoro visto nella sua duplice veste sia di quello utilizzato per produrre questi sistemi sia di quello relativo alle conseguenze destinate a prodursi nella fisionomia dell’attuale mondo del lavoro. Per quanto riguarda il primo aspetto, oltre al ruolo del lavoro molto qualificato svolto dai programmatori/ sviluppatori di cui abbiamo già parlato, occorre notare che esso si compone anche dell’apporto, tutt’altro che secondario, di lavoratori sfruttati e sottopagati, dislocati in particolare nei Paesi del sud del mondo, che hanno il compito di “ripulire” l’addestramento che proviene dalla lettura della miriade di dati, etichettandoli in termini tali che vengano evitate espressioni di odio, violenza sessuale e materiale a essi assimilabile.
L’intelligenza artificiale, poi, utilizza anche il lavoro degli utenti, cioè di noi stessi che produciamo domande, descrizioni, immagini che diventano altrettanti feedback di apprendimento per l’intelligenza artificiale. Troviamo qui l’impasto che caratterizza tutto il mondo del lavoro delle nuove tecnologie informatiche, che tende a diventare un modello per l’insieme del lavoro, e cioè la forte polarizzazione tra una fascia ristretta di lavoratori ultraqualificati, la maggior parte dei quali fidelizzati all’azienda tramite meccanismi incentrati sul possesso azionario, e una schiera di lavoro supersfruttato e gratuito, fonte di nuove e forti disuguaglianze.
Se poi ragioniamo sull’impatto che il ricorso all’IA determina sul lavoro odierno, non ci vuole molto a realizzare che esso avrà conseguenze importanti, a partire dal lavoro impiegatizio e di chi, dai giornalisti alle agenzie di stampa, si occupa di redazione dei testi. Per esempio, IBM ha già annunciato di poter fare a meno di circa un terzo dei 26.000 addetti che svolgono funzioni di backoffice, come le risorse umane e il servizio clienti.
Dal canto suo, Walmart, grande gigante della distribuzione organizzata, sta lavorando per sostituire il lavoro umano nel rapporto con i fornitori, affidando a un sistema di intelligenza artificiale la contrattazione con questi ultimi. Insomma, non c’è dubbio che saremo in presenza di un ulteriore rafforzamento della tendenza che è già in corso da diversi anni, dentro l’onda lunga della fase dell’innovazione tecnologica, di incremento della produttività, diminuzione occupazionale e polarizzazione-svalorizzazione del lavoro.
Infine, ci sono almeno altri 2 punti esposti a pesanti criticità, che rischiano di rimanere troppo in ombra: il primo è quello relativo al forte consumo energetico e di emissione di CO2 connesso al trattamento dei big data. Il modello prevalente attuale indirizza il digitale alla crescita piuttosto che al risparmio di risorse, tant’è che è stato evidenziato che solo l’addestramento del GPT3 per un compito consuma in qualche settimana come due cittadini americani in un anno. L’altro elemento su cui diventa necessario riflettere e intervenire riguarda tutto il sistema educativoformativo: in un mondo in cui la trasmissione del “sapere” sarà sempre più affidata alla tecnologia, che posto c’è per un apparato scolastico che era stato pensato per quella funzione e che viene invece spiazzato sin dalle sue radici?

Che fare?
Tutto ciò ci riporta al tema del “che fare” rispetto al cambio di paradigma tecnologico e sociale che lo sviluppo dell’IA ci consegnerà inevitabilmente.
Qui non mi resta che svolgere pochi appunti, non certamente esaustivi, che però varrà la pena approfondire. È certo che non basta evidenziare i rischi che stanno di fronte a noi o semplicemente chiedere un rallentamento, se non una moratoria, del suo avanzamento. Né appare sufficiente, come da ultimo ha messo in campo l’UE, anche con alcuni passaggi significativi, muoversi sul terreno della regolamentazione del fenomeno e della protezione di alcuni diritti fondamentali, visto che si interviene a valle di una situazione in cui dominano le 2 grandi superpotenze, USA e Cina. Occorre, invece, andare alla radice delle problematiche che solleva lo sviluppo dell’IA, e cioè pretendere che gli algoritmi messi a punto dai programmatori/sviluppatori su cui essa si fonda siano resi trasparenti, pubblici, in modo tale che possa essere chiaro quali sono gli obiettivi, le regole e, con esse, anche le distorsioni (più o meno volute) possano essere soggetti a un controllo pubblico e diffuso. Quello che va prioritariamente messo in discussione, in altri termini, è la privatizzazione e la finalizzazione alla realizzazione di profitti del bene comune fondamentale come è la produzione dell’informazione e la trasmissione della conoscenza.
Compito che, peraltro, potrà essere aggredito solo attraverso una trasformazione profonda del sistema formativo, riorientandolo verso l’alfabetizzazione generalizzata del funzionamento dei nuovi dispositivi tecnologici e della produzione di un nuovo armamentario di lettura critica degli stessi e del loro impatto sociale, tornando a occuparsi delle fonti e della costruzione del sapere e delle informazioni.
Vaste programme si potrebbe dire, ma non mi pare esista un’alternativa diversa per contrastare il rischio concreto che, anche con il ricorso spinto all’IA, il nostro futuro stia dentro un orizzonte distopico.


Corrado Oddi

Corrado Oddi

attivista sociale, si occupa in particolare di beni comuni, vocazione maturata anche in una lunga esperienza sindacale a tempo pieno, dal 1982 al 2014, ricoprendo diversi incarichi a Bologna e a livello nazionale nella CGIL.
È stato tra i fondatori del Forum Italiano dei Movimenti per l’Acqua nel 2006.