30 giugno 2023
ChatGpt scrive che "ha ricevuto numerosi riconoscimenti e premi per il suo lavoro, tra cui il prestigioso Acm presidential award. È membro dell’Accademia europea". Lei precisa: "Quel riconoscimento non mi è mai stato assegnato e l’accademia europea non esiste". Francesca Rossi è tra le scienziate che si occupano di etica dell’intelligenza artificiale più riconosciute al mondo. Lavora nel polo Ibm Thomas J. Watson e presiede l’Association for the advancement of artificial intelligence, associazione scientifica internazionale dedita a promuovere la ricerca nel settore, che ogni anno riunisce oltre 4mila esperti. È preoccupata dallo sviluppo dell’intelligenza artificiale generativa, che esacerba i problemi già esistenti e ne pone di nuovi. "Ma la soluzione – dice – non è demonizzare la tecnologia. Dobbiamo intervenire sul modo in cui viene usata per prevenire gli abusi. Il primo errore che facciamo è sovrastimare le macchine".
Dietro ChatGpt migliaia di sfruttati nel Sud del mondo
Cioè?
Tendiamo ad attribuirgli qualità umane che non hanno. Si chiama antropomorfizzazione. Per esempio: il fatto che Chat- Gpt scriva molto bene ci porta a pensare che abbia tutte le qualità di una persona erudita, quindi che comprenda quanto dice, controlli le informazioni e sappia distinguere il falso dal vero. Non è così. Questi software sono allenati per fare bene un solo compito: generare la parola più probabile dopo quelle scritte in precedenza. Un avvocato statunitense ha fatto l’errore di usare il programma per stilare un elenco di casi giudiziari analoghi a quello che vedeva protagonista il suo assistito, in cui la sentenza era stata favorevole. Peccato che ChatGpt avesse inventato tutto. Finché continueremo a fare l’errore di considerare le macchine umane, non riusciremo a sfruttarle al meglio.
Quali rischi la preoccupano di più?
L’intelligenza artificiale generativa ha segnato un cambio di passo. Prima i software riuscivano solo a classificare e predire, ora possono creare nuovi contenuti. Questo amplifica i problemi già esistenti e ne pone di nuovi, come la generazione di notizie false. È migliorata la capacità di confezionare video e immagini con protagonisti personaggi pubblici intenti a dire o fare cose che non hanno mai detto. Inoltre, sta diventando sempre più difficile capire come l’intelligenza artificiale arrivi a un determinato risultato partendo dall’input che le forniamo. Questo mina la fiducia nella tecnologia, di conseguenza anche il suo uso.
Crediamo in un giornalismo di servizio a cittadine e cittadini, in notizie che non scadono il giorno dopo. Ma per continuare a offrire un'informazione di qualità abbiamo bisogno di te. Sostienici!
Se sei già abbonato o hai acquistato il numero in cui è presente l'articolo clicca qui per accedere e continuare a leggere.
Record di presenze negli istituti penali e di provvedimenti di pubblica sicurezza: i dati inediti raccolti da lavialibera mostrano un'impennata nelle misure punitive nei confronti dei minori. "Una retromarcia decisa e spericolata", denuncia Luigi Ciotti