(Pixabay)
(Pixabay)

Più etica e trasparenza per gli algoritmi che governano il mondo

I nostri dati sono nelle mani di poche e potenti élite. L'intelligenza artificiale condiziona le nostre scelte quotidiane. Ci darà dei vantaggi, ma pone anche dei problemi

Massimo Razz

Massimo RazziGiornalista e scrittore

10 novembre 2021

  • Condividi

C’è una "élite cognitiva” che governa il mondo. Non ha eserciti, bombe o cannoni, ma possiede software avanzatissimi e la potenza di calcolo sufficiente a farli funzionare per orientare molte delle nostre scelte quotidiane: dove andare, cosa fare, cosa comprare, ma anche per chi votare o cosa credere o non credere. La prossima grande sfida dell’umanità è rendere trasparenti gli algoritmi che stanno dietro a queste armi apparentemente innocue e trasformarle in quello per cui erano state inventate e create: aiutare l’uomo a vivere meglio.

Scopri il nostro tag “Mondi digitali”

La definizione di “elite cognitiva” è del professor Domenico Talia (Università della Calabria) nel suo L’impero degli algoritmi. Alcune di queste sono note a tutti: Mark Zuckerberg (Facebook), Larry Page e Sergey Brin (proprietari di Google), Jeff Bezos (boss di Amazon) e pochi altri. Nelle loro mani si concentrano i codici necessari a far funzionare i vari pezzi di intelligenza artificiale che ci fanno comparire sullo schermo del telefonino la pubblicità di quell’oggetto di cui parlavamo ieri con un amico, che determinano chi deve essere assunto e chi no o se devi avere il mutuo che hai chiesto, che ci danno in pasto su Facebook le fake news e i commenti che ci confermano ossessivamente in un’idea del mondo spesso non corrispondente alla realtà.

Cosa sono gli algoritmi

Un algoritmo “è una strategia che serve per risolvere un problema ed è costituito da una sequenza finita di operazioni”. La definizione è di Wikipedia. Secondo il dizionario di Oxford l’algoritmo è “un procedimento di calcolo definibile in un numero finito di regole e di operazioni”. Insomma, qualcosa che l’uomo ha fatto fin dall’alba dei tempi e che ha continuato a fare per affrontare e risolvere i suoi problemi. Col passare dei secoli, l’essere umano ha usato la matematica per definire e schematizzare le diverse operazioni che componevano un algoritmo. Con l’avvento dei computer è diventato possibile risolvere in pochissimo tempo miliardi di calcoli ed equazioni.

L'algoritmo è un procedimento di calcolo definibile in un numero finito di regole e di operazioniDizionario di Oxford

Gli algoritmi dicono a una macchina dotata di grande potenza di calcolo di “leggere” e “capire” una quantità enorme di dati fino ad arrivare a prendere decisioni basate sulla probabilità che le cose vadano in un certo modo. Non solo, grazie ai processi di “machine learning” (intelligenza artificiale che permette di migliorare le performance in base ai dati che si utilizzano, ndr), le macchine in questione imparano e, a volte, possono prendere direzioni la cui comprensione sfugge anche a quelli che hanno programmato e sviluppato il software che le guida.

Dagli algoritmi, dunque, discende l’intelligenza artificiale. La stiamo già usando e la useremo sempre di più. Ci aiuta a fare diagnosi mediche quasi perfette, ci permette di costruire robot umanoidi in grado di aiutare l’uomo a svolgere praticamente qualsiasi compito: manuale o intellettuale. Ci permette di avere aerei, treni e navi guidati dalle macchine e auto a guida autonoma che fra qualche anno entreranno in commercio. Banalmente ci dà la possibilità di consultare un navigatore che ci spiega qual è la strada giusta da prendere e di avere in casa una voce amica (come Alexa, Siri, Cortana) che risponde a tante nostre domande e fa funzionare le nostre abitazioni nel migliore dei modi.

Gli algoritmi ci daranno grandi vantaggi, ma ci pongono anche dei problemi: sono in grado di condizionare le nostre vite, di “dirigerle”

E l’intelligenza artificiale è già in grado di leggerci un libro, di tirar fuori da migliaia di pagine (sentenze, testi complessi, studi sterminati, intere biblioteche) i dati e le parole che ci servono. Ed è anche quasi pronta a scrivere un pezzo come questo che sto scrivendo e (dicono) anche migliore. Gli algoritmi ci daranno grandi vantaggi, ma ci pongono anche dei problemi: sono in grado di condizionare le nostre vite, di “dirigerle” ma anche, più prosaicamente, potrebbero togliere il lavoro a tantissima gente. I pessimisti dicono che sarà un disastro, gli ottimisti che avremo delle crisi occupazionali “locali” ma che nasceranno anche tanti nuovi lavori sempre di maggiore qualità. Ma se, all’estremo, fra qualche secolo, le macchine intelligenti finissero per sostituire l’uomo in quasi tutte le sue attività, cosa accadrebbe? Ipoteticamente, avremmo tutto il tempo a disposizione per divertirci, dedicarci al nostro corpo (sport, palestra ecc.) a leggere e ascoltare musica. Bene, ma chi ci darebbe i soldi per vivere? Qui la risposta potrebbe forse darcela un redivivo Carlo Marx a partire dalla questione della proprietà diffusa dei mezzi di produzione.

La rinascita dell’hacktivismo

Da dove provengono e dove vanno i nostri dati

Ma torniamo all’oggi. L’intelligenza artificiale si basa sulla capacità di macinare una quantità enorme di dati. Quali dati? E da chi provengono? Sono, in gran parte, i dati che noi stessi forniamo alle grandi piattaforme a cui siamo perennemente collegati: Facebook, Twitter, Amazon, Youtube, Netflix e le altre raccolgono continuamente elementi su chi siamo, cosa facciamo, sulle nostre preferenze e su quello che pensiamo, amiamo o odiamo. È il prezzo che, più o meno consciamente paghiamo in cambio della possibilità di usufruire di quelle piattaforme. Sembra accettabile. Per questo, i giuristi che si occupano di questi temi sostengono che bisogna andare “oltre” la privacy. “Ci vogliono norme di tipo costituzionale – spiega il professor Andrea Simoncini, costituzionalista dell’Università di Firenze – perché qui parliamo di diritti ‘non disponibili’, quelli che non dovremmo poter cedere anche quando lo volessimo. Come la libertà personale, o il diritto alla salute. Apposite norme, dunque, ci dovrebbero tutelare anche oltre la nostra volontà o la nostra privacy”.

Facebook, Twitter, Amazon, Youtube, Netflix e le altre raccolgono continuamente elementi su chi siamo, cosa facciamo, sulle nostre preferenze e su quello che pensiamo, amiamo o odiamo

Per farlo sarebbe necessario che gli Stati e gli organismi internazionali (come l’Unione Europea) mettessero a disposizione spazi virtuali in cui i nostri dati vengono tutelati e non utilizzati da grandi compagnie private. Un esempio è avvenuto durante la pandemia. Tutti abbiamo lavorato da casa utilizzando sempre più spesso le piattaforme di collegamento per le chiamate. Ogni volta, i nostri dati sono entrati nei sistemi del titolare (Google, Amazon o chi altro) titolare della piattaforma sulla quale si è svolto il meeting. Come li utilizzeranno? Cosa ci daranno in cambio? Non sarebbe meglio che ci fossero piattaforme pubbliche e controllabili sulle quali comunicare?

“Io, moderatrice di Facebook al lavoro contro l’odio. Salvini, protetto speciale”

Applicare l’intelligenza artificiale nei tribunali

E c’è di peggio. L’intelligenza artificiale viene già utilizzata anche dalla pubblica amministrazione in Italia come in altri paesi. Abbastanza noto è il caso delle graduatorie per l’assunzione degli insegnanti in base alla legge sulla “buona scuola”. Per la prima volta vennero utilizzati algoritmi che stilavano le graduatorie in base a una serie di parametri. Gli esclusi sapevano di essere stati cancellati da una macchina ma non sapevano perché. Quando chiesero di sapere come funzionava l’algoritmo che aveva stilato le graduatorie si videro opporre un rifiuto a tutela del segreto industriale. Il Tar diede loro ragione e impose allo Stato di svelare criteri e parametri. Ma negli Stati Uniti, in una causa simile, le corti federali diedero torto a un signore (mister Eric L. Looms) che era stato condannato da un giudice del Wisconsin coadiuvato da un programma informatico chiamato Compas (Correctional offender management profiling for alternative sanctions). Looms, persona di colore, riteneva che l’algoritmo di Compas avesse dentro dei pregiudizi nei confronti di chi è nero e povero e, quindi, facilmente delinque. Anche in quel caso, venne opposto il segreto industriale ma, a differenza dell’Italia, le Corti diedero ragione all’industria e sentenziarono che, comunque, il giudice era stato solo “aiutato” da Compas ma aveva deciso in autonomia.

L'algoritmo di Deliveroo stabiliva chi fra i fattorini si era comportato meglio e stabiliva un ranking. Chi aveva scioperato, non veniva chiamato

E che dire di quanto è accaduto in Italia con Deliveroo, l’azienda di distribuzione di cibo che utilizza i riders? Anche qui c’è di mezzo un algoritmo che stabiliva chi fra i fattorini si era comportato meglio e stabiliva un ranking. In base a quella classifica, ciascun rider avrebbe ricevuto più o meno occasioni di lavoro. L’algoritmo era un mistero ma una cosa chiara la faceva, penalizzava i lavoratori che avevano scioperato come se quelle ore corrispondessero a mancata disponibilità alle consegne. I lavoratori hanno fatto ricorso e il tribunale ha dato loro ragione condannando Deliveroo per discriminazione collettiva. Davide Contu, uno dei giovani che ha partecipato alle lotte per il riconoscimento dello status di lavoratori dipendenti, racconta che l’azienda geolocalizzava la posizione dei rider ogni 12 secondi e che, piuttosto che mostrare al magistrato che cosa esattamente faceva l’algoritmo, hanno preferito pagare una multa salata di 733mila euro. Ora le cose sono un po’ cambiate ma il sospetto è che ci sia ancora un algoritmo segreto che stabilisce il ranking e assegna le consegne è molto forte.

Sostituiti dalle macchine

Insomma, gli algoritmi possono avere effetti pesanti sul mondo del lavoro. Uno dei più assurdi lo racconta Cinzia Maiolini, responsabile dell’Ufficio Lavoro 4.0 della Cgil: “Ad Amazon hanno proceduto all’efficientamento del lavoro nei magazzini dove viene sistemata la merce prima delle consegne. Per farlo hanno utilizzato i dati prodotti dagli stessi lavoratori monitorando per mesi la loro attività. Le persone, davanti al problema di movimentare e immagazzinare scatole e scatoloni, sviluppano sistemi quasi inconsci ma molto vantaggiosi per fare più in fretta e meglio. Gli algoritmi hanno ‘catturato’ questi movimenti e li hanno ‘insegnati’ alle macchine. Poi Amazon ha provato a sostituire i lavoratori con delle macchine che avevano ‘imparato’ dalle stesse persone che, così, perdevano il posto di lavoro”.

Negli Usa sembra prevalere la libertà di mercato. In Cina, i social sono utilizzati per diffondere odio

Che fare, dunque, davanti a questa nuova forma di potere che il professor Franco Zambonelli, docente di informatica all’Università di Modena e Reggio Emilia, ha chiamato “Algocrazia”? Sembra che il mondo si muova in ordine sparso. Negli Usa (dove tutto quel potere si concentra in mani private) sembra ancora prevalere la libertà di mercato. Anche se Mark Zuckerberg si è trovato in serie difficoltà di fronte alle accuse della ex dipendente di Facebook Frances Haugen che ha dimostrato, carte alla mano, che Fb sembra fatto apposta per suscitare odio tra gli utenti e per trarne profitti enormi senza che la casa madre intervenga come sarebbe nelle sue possibilità. In Cina è il potere statale che interviene, ma non è sempre chiara la direzione. Di sicuro, nei confronti della minoranza musulmana degli uiguri, i social cinesi sono stati ampiamente utilizzati per diffondere odio.

La Commissione Europea ha incaricato un gruppo di esperti indipendenti di mettere a punto un documento sull’Intelligenza Artificiale

Ancora una volta, pur tra mille difficoltà, l’Europa prova a muoversi cercando di dettare delle regole che permettano di intervenire sull’intelligenza artificiale, il più a monte possibile. È chiaro che l’algoritmo ha bisogno di una forte dose di etica per poter “stare al mondo”, ma questa va inserita all’inizio e, soprattutto, nei dati che servono a “nutrire” le macchine intelligenti. Saranno dunque gli stessi ricercatori e sviluppatori informatici a doversi muovere con la massima attenzione: “Noi già lo facciamo – dice il professor Giorgio Metta, direttore dell’Istituto di tecnologia di Genova, il punto più avanzato in Italia per i robot e l’intelligenza artificiale – La ricerca deve essere assolutamente libera, ma quando si costruisce un pezzo di intelligenza artificiale è necessario avere dei punti di riferimento etici”. Qualcosa è già stato messo nero su bianco a livello di Unione europea (Ue). La Commissione europea ha incaricato un gruppo di esperti indipendenti di mettere a punto un documento sull’Intelligenza artificiale. Si chiama “Altai” (Assessment list for trustworthy artificial intelligence for self-assessment) ossia una lista di elementi per valutare l’affidabilità dell’Intelligenza artificiale a partire dalle linee guida etiche precedentemente definite. Sono stati elencati sette punti chiave: il ruolo e supervisione umana, sicurezza e robustezza tecnica, “governance” (pubblica) dei dati e della privacy, trasparenza, non discriminazione ed equità, benessere ambientale e sociale, responsabilità.

Se l'Europa non saprà contrastare il potere monopolistico delle multinazionali del web, perderà la scommessa per il futuro

Etica e trasparenza per costruire l’intelligenza artificiale

Ma ci vorrà tempo per arrivare a delle regole chiare e definite. Di certo non basteranno i disclaimer. Dice Guido Scorza, membro del Garante della privacy: “C’è un tema di trasparenza generale degli algoritmi e c’è un tema di educazione del cittadino che deve essere messo in condizione di capire cosa c’è dietro i dati che gli vengono continuamente richiesti. E non è una questione tecnica, ma culturale e etica. Ci vogliono regole, dunque e anche dei limiti non oltrepassabili come è successo per la clonazione umana e ci vuole tanta educazione civica digitale fin dalle scuole primarie. I ragazzi sanno usare quasi ‘naturalmente’ gli oggetti per connettersi, ma devono sapere anche chi userà e come i loro dati e perché gli vengono proposti certi film, certe serie tv e certe canzoni”.

"I ragazzi sanno usare quasi naturalmente gli oggetti per connettersi, ma devono sapere anche chi userà e come i loro dati"Guido Scorza - membro del Garante della privacy

E, attraverso, la conoscenza e la trasparenza possiamo anche provare a “riconnetterci” con la realtà uscendo dalla mediazione tecnologica dei “device” con i quali siamo ormai in simbiosi. Perché qui si tratta anche del sapere che ciascuno di noi si porta dentro. Certo, la nostra “propaggine” tecnologica ci dà accesso immediato a saperi più vasti, ma dobbiamo continuare a imparare e riapprendere da quello che ci circonda. L’esempio è quello del navigatore, strumento fondamentale per non perderci, anche se una volta bastava chiedere a uno del luogo. Siamo in una strada di montagna e, a un bivio, il navigatore ci dice di andare a destra. Dopo poche centinaia di metri ci troviamo di fronte a una frana che le informazioni a disposizione del navigatore non avevano ancora considerato. Una persona “connessa” con la sua realtà, invece, è quella che sa della frana per i normali e umanissimi canali comunicativi, non dà retta al navigatore e al bivio va a sinistra.

Bitcoin, cosa sono e come funzionano

Etica e trasparenza nel costruire l’intelligenza artificiale, dunque, ed educazione digitale per gli utenti. Basterà? Rischiamo di trovarci fra molti anni in un mondo dominato dalle macchine intelligenti, dietro le quali ci sono poche persone ricchissime e potentissime? E la strada per impedirlo è quella di rimettere l’uomo al centro del sistema? È interessante, da questo punto di vista, la risposta di Derrick De Kerckhove, “guru” di internet, sociologo e docente all’Università di Torino: “Prima di tutto noi dobbiamo riuscire a fermare la logica folle dell’attuale capitalismo che non si esprime solo attraverso gli algoritmi ma anche attraverso la tragedia ambientale e climatica. E dunque, non sarà forse il caso di rimettere al centro di tutto la Terra invece dell’uomo? Certo, l’uomo non deve mica sparire, ma potrebbe, anche usando strumenti tecnologici avanzati, compresa l’intelligenza artificiale, provare a mettere in primo piano i ‘bisogni’ di questa Terra martoriata del cui malessere è il primo responsabile”.

Crediamo in un giornalismo di servizio ai cittadini, in notizie che non scadono il giorno dopo. Aiutaci a offrire un'informazione di qualità, sostieni lavialibera
  • Condividi

La rivista

2024 - numero 28

Curve pericolose

In un calcio diventato industria, mafie ed estremismo di destra entrano negli stadi per fare affari

Curve pericolose
Vedi tutti i numeri

La newsletter de lavialibera

Ogni sabato la raccolta degli articoli della settimana, per non perdere neanche una notizia. 

Ogni prima domenica del mese un approfondimento speciale, per saperne di più e stupire gli amici al bar

Ogni terza domenica del mese, CapoMondi, la rassegna stampa estera a cura di Libera Internazionale