(Emiliano Vittoriosi/Unsplash)
(Emiliano Vittoriosi/Unsplash)

"Dietro ChatGpt lavoratori sfruttati nel Sud del mondo"

Il lavoro umano, mal pagato o gratuito, è il grande rimosso dal dibattito sull'intelligenza artificiale: un'estrazione di conoscenza collettiva, fatta da aziende private, per cui va immaginata una redistribuzione, sostiene Antonio Casilli, professore di sociologia dell'Institut polytechnique de Paris

Rosita Rijtano

Rosita RijtanoGiornalista

30 giugno 2023

  • Condividi

È pubblicizzato come un sistema di videocamere intelligenti capace di allertare i commercianti se ci sono dei movimenti sospetti in negozio. Ma nella realtà la tecnologia consiste di centinaia di lavoratori del Madagascar sottopagati. "Passano le loro giornate chiusi in uno stanzone a guardare le immagini riprese dalle telecamere in tempo reale", racconta Antonio Casilli, professore di sociologia dell’Institut polytechnique de Paris e autore di Schiavi del clic (Feltrinelli), un’inchiesta sul nuovo capitalismo delle aziende digitali. È uno dei tanti inganni scoperti dal suo gruppo di ricerca, DipLab, da anni impegnato ad analizzare gli impatti sociali ed economici dell’intelligenza artificiale che "nei fatti – spiega il docente – non è né intelligente né artificiale", ma funziona come il turco meccanico: il finto automa creato nel 1769 per simulare un giocatore di scacchi, manovrato da un uomo nascosto al suo interno.

Non a caso Mechanical Turk (turco meccanico) è il nome che il papà di Amazon, Jeff Bezos, ha dato alla piattaforma di micro-lavori, fondata nel 2005, in cui ricercatori e imprese possono ingaggiare personale per svolgere specifici compiti. Sono passati quasi 20 anni, ma non molto è cambiato. "Siamo noi il vero motore dell’intelligenza artificiale. Anche ChatGpt, il chatbot realizzato da OpenAI specializzato nelle conversazioni, deve le sue capacità a mani umane come suggerisce lo stesso acronimo: p, infatti, sta per pre-trained cioè pre-addestrato ". È il grande rimosso dal dibattito sulla tecnologia che ha per protagonisti i giganti del settore, preoccupati dai programmi generativi, in grado di creare nuovi contenuti a partire da una richiesta. Per il ricercatore, "dipingono scenari catastrofici, dimenticando i rischi già concreti".

Professor Casilli, cosa intendiamo in concreto quando parliamo di intelligenza artificiale?
In concreto, si tratta per lo più di software che imparano da una grande mole di dati. Un patrimonio conoscitivo disponibile gratis sul web di cui le aziende più ricche del mondo si stanno appropriando per scopi privati. Il garante della privacy italiano ha fatto bene a chiedere a ChatGpt di conformarsi al regolamento per la protezione dei dati personali, ricordando che la raccolta delle informazioni avviene in mancanza di una base giuridica e con l’obiettivo di addestrare gli algoritmi necessari al funzionamento della piattaforma. Ma il contributo umano va anche oltre.

In che modo?

"Le imprese lo esternalizzano, affidandolo per lo più a migliaia di persone nel Sud del mondo: Asia, Africa e America Latina. Lo sfruttamento è duplice: non solo le paghe sono infime, da pochi centesimi a qualche dollaro l’ora, ma le aziende negano a questi lavoratori"

Per essere utili all’apprendimento delle macchine, le informazioni vanno prima filtrate, etichettate e arricchite. Nel caso di ChatGpt, per esempio, è stato necessario classificare i contenuti tossici, come insulti razzisti e notizie false, per escluderli da quelli utilizzabili dal chatbot. Un lavoro lungo e pesante che ha importanti ripercussioni sulla salute mentale. Le imprese lo esternalizzano, affidandolo per lo più a migliaia di persone nel Sud del mondo: Asia, Africa e America Latina. Lo sfruttamento è duplice: non solo le paghe sono infime, da pochi centesimi a qualche dollaro l’ora, ma le aziende negano a questi lavoratori qualsiasi riconoscimento professionale, considerando la loro attività a bassa competenza. Devono vendere una soluzione automatizzata e minimizzano. Un falso, senza l’organizzazione dei dati, l’intelligenza artificiale non esisterebbe. A volte persino letteralmente: abbiamo scoperto che in molti casi a svolgere i compiti, in teoria affidati a un software, era gente in carne e ossa. Un ulteriore contributo arriva poi dagli utenti. Ogni volta che facciamo delle richieste a ChatGpt, o gli diamo dei feedback, stiamo lavorando per migliorarlo. Questo sfruttamento diventa ancora più grave se al computer ci sono degli adolescenti in un contesto di formazione. Potremmo inquadrarlo come lavoro minorile.

"Io, moderatrice di Facebook al lavoro contro l'odio" 

Quali possibili soluzioni?
È necessario immaginare forme di redistribuzione per questa estrazione di conoscenza, come un reddito digitale di cittadinanza. Una riflessione che non può prescindere da un cambiamento: dobbiamo abituarci a considerare il lavoro non più solo come uno sforzo individuale, ma collettivo. I dati che, in modo più o meno consapevole, mettiamo a disposizione online non riguardano solo noi ma tutta la nostra rete sociale: familiari, amici e colleghi.

Sempre in tema lavoro, uno dei problemi più sentiti dalla politica sono le ricadute che lo sviluppo dell’intelligenza artificiale potrebbe avere sul mercato occupazionale. Timori fondati?
Mi preoccupa di più l’uso ideologico che si fa dell’argomento. C’è una tendenza ad esagerare le capacità delle macchine come il loro utilizzo. Si è parlato molto degli algoritmi predittivi sfruttati negli Stati Uniti per stabilire le sentenze e di quanto siano discriminanti per chi ha la pelle nera. Il problema esiste. Ma la giustizia discrimina perché è razzista in modo sistemico, che sia amministrata da un giudice o da un algoritmo. Angèle Christin, docente di Stanford, ha provato che in verità la magistratura Usa si affida poco ai software. Dovremmo, invece, prestare più attenzione a decisori politici ed economici che prendono a pretesto la falsata narrativa sull’intelligenza artificiale per legittimare i loro abusi in ogni ambito, con licenziamenti e accordi al ribasso per i lavoratori.

AI, la scienziata Francesca Rossi: "Il primo errore è sovrastimare le macchine"

Nei mesi scorsi, il Future of life institute, organizzazione senza scopo di lucro che ha l’obiettivo di ridurre i rischi legati allo sviluppo dell’intelligenza artificiale, ha chiesto di sospendere per sei mesi gli esperimenti avanzati nel settore. Tra i firmatari, ci sono Elon Musk, magnate di Tesla e co-fondatore di OpenAi, e componenti di DeepMind, la società di intelligenza artificiale controllata da Google. Lei è d’accordo?
Non ho firmato. La trovo un’operazione cinica e politicamente reazionaria che non serve a nulla. L’unico risultato è stato fare pubblicità a un think-tank libertario. Basti pensare che pochi giorni dopo la pubblicazione dell’appello, Musk l’ha disatteso aprendo una nuova compagnia destinata allo sviluppo di un competitor di ChatGpt. Non condivido neppure l’enfasi sul futuro posta dai magnati della tecnologia. Non c’è bisogno di immaginare scenari apocalittici, i rischi legati all’intelligenza artificiale sono già concreti e riguardano non solo lo sfruttamento del lavoro ma anche la concentrazione del potere nelle mani di poche aziende e la salvaguardia dei dati personali. Il problema della privacy, in particolare, è stato a lungo ignorato dalle istituzioni ed è ormai un buco nero.

Quanto profondo?

"È evidente che Siri e Cortana possono attivarsi, in modo abusivo, in qualsiasi momento, raccogliendo informazioni a volte sensibili, altre persino intime"

Faccio un esempio. DipLab, il mio gruppo di ricerca, ha raccolto le testimonianze di lavoratori che ascoltano gli stralci di conversazione salvati da Siri e Cortana, gli assistenti digitali di Apple e Microsoft. Si occupano di verificare che la trascrizione fatta dagli algoritmi sia coerente con quanto effettivamente detto durante la registrazione. Dalle loro testimonianze è evidente che Siri e Cortana possono attivarsi, in modo abusivo, in qualsiasi momento, raccogliendo informazioni a volte sensibili, altre persino intime: dallo stato di salute all’orientamento politico passando per le preferenze sessuali. Dati che Stati più o meno autoritari riescono a ottenere con lo scopo di perseguire gli oppositori politici. Succede sempre più spesso. E persino in Francia è stata approvata una legge che permette all’autorità giudiziaria di chiedere alle piattaforme l’attivazione del microfono. Alcuni studiosi chiamano questo fenomeno estrattivismo dei dati, altri hanno coniato l’espressione capitalismo di sorveglianza. Entrambe le definizioni sono valide e riconosciute a livello accademico, ma secondo me non bastano.

Più etica e trasparenza per gli algoritmi che governano il mondo

Perché?
Si tratta di un problema strutturale. Il nodo è che l’attuale modello di intelligenza artificiale può imparare solo attraverso i dati. E l’addestramento continuo fa sì che il ciclo infernale di raccolta delle informazioni a carattere personale non si fermi mai. Se termina, la tecnologia stessa non funziona. Pensiamo agli algoritmi di riconoscimento facciale: devono sapere come cambia il nostro viso nel tempo, altrimenti smettono di riconoscerci.

Di recente, il parlamento europeo ha dato il via libera all’Artificial intelligence act, il regolamento Ue sull’intelligenza artificiale. Va nella direzione giusta?
Le leggi esistono, serve solo applicarle. Da qualche mese, i grandi del settore sono scatenati: lamentano di essere stati lasciati senza regole, chiedendo un intervento della politica. Sam Altman, presidente di OpenAi e padrone di ChatGpt, sta facendo il giro di tutti i principali esponenti dei partiti statunitensi. La richiesta è una collaborazione tra industriali, politici ed esperti per arrivare all’elaborazione di regole efficaci. Efficaci è la parola magica. Tradotto significa leggi che siano funzionali alle necessità dell’industria. Ma la regolamentazione non può trasformarsi in un servizio che la politica rende alle aziende, altrimenti diventa collusione.

Parliamo dei potenziali vantaggi dell’intelligenza artificiale. Opinione condivisa al World economic forum è stata che possa contribuire alla risoluzione della crisi climatica, fornendo una panoramica dettagliata della questione. Che ne pensa?
Di certo c’è che le attuali soluzioni informatiche valutano trilioni di parametri. Calcoli che necessitano di enormi quantità di energia. Sempre più analisi stanno facendo emergere i costi ambientali di questi sistemi in termini sia di emissioni sia di estrazione di risorse cruciali, come litio, nichel e cobalto. Il tutto per avere un’intelligenza artificiale che fa cattive imitazioni di opere d’arte. Non vale il prezzo.

Da lavialibera n° 21

  • Condividi

La rivista

2024 - numero 28

Curve pericolose

In un calcio diventato industria, mafie ed estremismo di destra entrano negli stadi per fare affari

Curve pericolose
Vedi tutti i numeri

La newsletter de lavialibera

Ogni sabato la raccolta degli articoli della settimana, per non perdere neanche una notizia. 

Ogni prima domenica del mese un approfondimento speciale, per saperne di più e stupire gli amici al bar

Ogni terza domenica del mese, CapoMondi, la rassegna stampa estera a cura di Libera Internazionale