Browse By

I PERICOLI DELL’INTELLIGENZA ARTIFICIALE di Chiara Arena*

 280 total views,  1 views today

7 aspetti negativi dell’intelligenza artificiale che tutti dovrebbero conoscere

L’intelligenza artificiale sta già avendo un profondo effetto sulla società, un impatto che promette di diventare ancora più grande man mano che la tecnologia diventa più sofisticata. Ma non è detto che tutto sia positivo.Abbiamo stilato un elenco dei 7 aspetti negativi dell’intelligenza artificiale a cui tutti dovremmo prestare attenzione.

1. Disoccupazione

Con il crescente timore che l’automazione e l’IA cambino il nostro modo di lavorare e portino a un aumento della disoccupazione, ci si interroga su quali lavori saranno sostituiti dalle macchine in futuro. Alcuni esperti sottolineano che i potenziali cambiamenti nel lavoro sono imminenti: entro il 2030, si stima che tra i 75 e i 375 milioni di lavoratori (tra il 3 e il 14% della forza lavoro globale) dovranno cambiare lavoro e imparare nuove professioni. Ciò rivela un ampio divario nelle previsioni, dalle più ottimistiche alle più pessimistiche, e riflette il fatto che molti esperti del settore tecnologico e commerciale non condividono una visione comune del futuro del nostro mercato del lavoro. In breve: è molto difficile determinare quanti posti di lavoro andranno effettivamente persi. La transizione verso un mondo più automatizzato sarà una sfida importante per molti Paesi, poiché garantire che la forza lavoro abbia le competenze e il supporto necessari per passare ai nuovi lavori non è un compito facile. Soprattutto perché l’impatto dell’automazione è più pronunciato nei lavori poco qualificati, come le funzioni amministrative, l’edilizia o i servizi logistici. Pertanto, l’implementazione della robotica e dell’IA contribuisce alla riduzione dei posti di lavoro disponibili per i settori poco qualificati e ha un effetto negativo sui posti di lavoro a bassa retribuzione. Questo potrebbe portare a un aumento della polarizzazione dei redditi e della disoccupazione di massa. L’insicurezza economica – come sappiamo dal passato – può essere un’enorme minaccia per le nostre democrazie, portando a una perdita di fiducia nelle istituzioni politiche, ma anche a un disagio nei confronti del sistema in generale. Di conseguenza, il modo in cui l’IA cambia il nostro modo di lavorare potrebbe spianare la strada agli elettori per simpatizzare con i partiti populisti, favorendo le condizioni per l’adozione di un atteggiamento sprezzante nei confronti delle democrazie liberali rappresentative.

2. Mancanza di trasparenza

L’intelligenza artificiale può essere difettosa in molti modi, quindi la trasparenza è estremamente importante. I dati che utilizza per alimentarsi possono essere pieni di errori o mal filtrati. È anche possibile che gli scienziati e gli ingegneri che hanno addestrato il modello abbiano involontariamente selezionato serie di dati distorte. Quindi, a causa delle molte cose che possono andare storte, il vero problema è la mancanza di visibilità: non sapere perché non funziona correttamente, o peggio: a volte non sapere nemmeno che sta funzionando male. Nello sviluppo di un’applicazione tipica, esistono processi e strumenti di garanzia della qualità e di test in grado di rilevare rapidamente eventuali errori.

Ma l’IA non è solo codice, i modelli sottostanti non possono essere semplicemente analizzati per individuare i bug: alcuni algoritmi di apprendimento automatico non sono spiegati o sono tenuti segreti (poiché ciò è nell’interesse commerciale dei loro produttori), o entrambi. Ciò implica una comprensione limitata dei pregiudizi o dei fallimenti che l’IA può generare. Negli Stati Uniti, i tribunali hanno iniziato a utilizzare algoritmi per determinare il “rischio” che un imputato commetta un altro reato, al fine di informare le decisioni in materia di cauzione, condanna e libertà vigilata. Il problema è che manca una buona supervisione e trasparenza sul funzionamento di questi strumenti.

Senza adeguate garanzie e senza leggi federali che stabiliscano standard o richiedano ispezioni, questi strumenti rischiano di erodere lo stato di diritto e di minare i diritti individuali. Nel caso dell’imputato Eric Loomis, ad esempio, il giudice del processo ha imposto una lunga pena a causa del punteggio “ad alto rischio” ricevuto dall’imputato dopo aver risposto a una serie di domande che sono state inserite in Compas, uno strumento di valutazione del rischio. Il Compas è uno strumento di valutazione del rischio “a scatola chiusa”: il giudice, o chiunque altro, non sapeva certo come il Compas fosse giunto alla decisione che Loomis è un “alto rischio” per la società. Per quanto ne sappiamo, Compas può basare le sue decisioni su fattori che consideriamo ingiusti, può essere razzista, agevole o sessista senza che noi lo sappiamo.

3. Algoritmi distorti e discriminatori

Questo ci porta al prossimo argomento. Il “pregiudizio” non è solo un problema sociale o culturale, ma anche un problema in campo tecnico. I difetti di progettazione o i dati errati e sbilanciati immessi negli algoritmi possono portare a software e artefatti tecnici distorti. In questo modo, l’IA non fa altro che riprodurre i pregiudizi razziali, di genere e di età già presenti nella società e approfondire le disuguaglianze sociali ed economiche. Probabilmente avrete letto delle pratiche di assunzione sperimentali di Amazon qualche anno fa. All’epoca, l’intelligenza artificiale veniva utilizzata per trovare candidati al lavoro valutandoli da una a cinque stelle, in modo simile a come gli acquirenti valutano i prodotti su Amazon. Si trattava di una discriminazione nei confronti delle donne, perché i modelli informatici di Amazon erano stati addestrati a vagliare i candidati osservando gli schemi dei curriculum inviati all’azienda in un periodo di 10 anni, favorendo i candidati uomini e sfavorendo i curriculum che contenevano la parola “donna”.

Oltre alla base di dati distorta, anche i team di sviluppo omogenei e non rappresentativi rappresentano un problema. La loro scarsa diversità intreccia i loro punti ciechi culturali e i pregiudizi inconsci nel DNA della tecnologia. Le aziende che non hanno diversità corrono quindi il rischio di sviluppare prodotti che escludono i loro clienti. Quattro anni fa, uno studio ha rilevato che alcuni programmi di riconoscimento facciale hanno classificato in modo errato meno dell’1% degli uomini con la pelle chiara, ma più di un terzo delle donne con la pelle scura. I produttori hanno affermato che il programma era competente, ma il set di dati utilizzato per valutare le prestazioni era composto per oltre il 77% da uomini e per oltre l’83% da bianchi.

4. Profilazione

L’intelligenza artificiale può essere utilizzata per creare profili spaventosamente accurati delle persone. Si stanno sviluppando algoritmi per trovare modelli. Nel corso di una competizione sulla raccolta di dati personali, è emerso che erano in grado di prevedere la probabile posizione futura di un utente osservando la cronologia delle posizioni passate. La previsione è risultata ancora più accurata quando sono stati utilizzati anche i dati di localizzazione degli amici e dei contatti sociali. A volte questo aspetto negativo dell’intelligenza artificiale viene minimizzato. Potreste ora dire che non vi interessa sapere chi conosce i vostri movimenti, dopo tutto non avete nulla da nascondere. Ma probabilmente non è del tutto vero. Anche se non state facendo nulla di male o di illegale, potreste non volere che i vostri dati personali siano ampiamente disponibili. Dopotutto, non ci si trasferirebbe in una casa con pareti trasparenti. Quindi è davvero vero che non vi interessa se la cronologia della posizione del vostro dispositivo viene condivisa? E la cronologia della posizione di vostra figlia adolescente? Vi sentireste davvero a vostro agio se qualcuno divulgasse i dati relativi alla sua posizione, comprese le previsioni? Di certo non lo fareste. La conoscenza è potere e le informazioni che diamo via hanno potere su di noi.

5. Disinformazione

L’aumento della disinformazione è un aspetto negativo dell’intelligenza artificiale a cui stiamo già assistendo. Nel 2020, il gruppo di attivisti Extinction Rebellion ha utilizzato Deepfake per produrre un discorso fittizio del primo ministro belga Sophie Wilmès. Hanno preso un vero discorso video di Wilmès e hanno usato l’intelligenza artificiale per manipolare le sue parole. Il risultato: la disinformazione. Nel falso video si vede Wilmès parlare di Covid-19 e sostenere che la pandemia è direttamente collegata allo “sfruttamento umano e alla distruzione del nostro ambiente naturale”. Purtroppo questo non è stato l’unico caso. I deepfakes saranno sempre più utilizzati in futuro per campagne di disinformazione mirate che minacciano i nostri processi democratici e causano polarizzazione sociale. Inoltre, esistono bot online in grado di creare testi falsi come articoli di notizie o tweet per diffondere idee distorte. Lo strumento linguistico di intelligenza artificiale GPT-3 ha recentemente creato dei tweet che recitano “Non possono parlare di aumenti di temperatura perché non si stanno più verificando” per alimentare lo scetticismo nei confronti del cambiamento climatico. Negli ultimi anni, con Trump che ha definito costantemente falsi i media, tali tecnologie potrebbero significare il “collasso della realtà”, come ha detto The Atlantic. Con i deepfake e i bot online che diffondono disinformazione, la società potrebbe vedere sfumare i confini tra realtà e finzione e la fiducia nelle nostre istituzioni politiche vacillare.

6. Impatto sull’ambiente

L’intelligenza artificiale può avere un impatto positivo sull’ambiente, ad esempio consentendo alle reti intelligenti di regolare la domanda di elettricità o alle città intelligenti e a basse emissioni di carbonio. Tuttavia, l’IA può anche causare danni ambientali significativi a causa del consumo intensivo di energia. Uno studio del 2019 ha rilevato che un certo tipo di IA (apprendimento profondo nell’elaborazione del linguaggio naturale) lascia un’enorme impronta di carbonio perché l’hardware richiede molta energia. Secondo gli esperti, l’addestramento di un singolo modello di intelligenza artificiale produce 300.000 kg di emissioni di CO2 – l’equivalente di 125 voli di andata e ritorno da New York a Pechino, o cinque volte le emissioni di un’automobile media (americana) nel corso della sua vita. E l’addestramento dei modelli non è l’unica fonte di emissioni, ovviamente. Anche l’infrastruttura per l’utilizzo dell’IA da parte delle Big Tech ha un impatto significativo sulle emissioni di carbonio: i centri dati devono essere costruiti e i materiali utilizzati devono essere estratti e trasportati.

7. Dominio delle grandi aziende tecnologiche

L’IA è dominata dalle grandi aziende tecnologiche. Dal 2007, Google ha acquisito almeno 30 aziende di IA che lavorano su qualsiasi cosa, dal riconoscimento delle immagini alle voci umane per computer, costruendo un enorme monopolio sulla tecnologia IA. Ma Google non è l’unico gatekeeper. Nel 2016, Google, Apple, Facebook, Microsoft e Amazon, insieme ai megaplayer cinesi, hanno speso fino a 30 miliardi di dollari su una stima di 39 miliardi di dollari a livello globale per la ricerca, lo sviluppo e le acquisizioni legate all’IA. È pericoloso che le aziende di tutto il mondo stiano acquistando start-up di IA, perché in questo modo si stanno assicurando un’influenza sproporzionata sulla direzione in cui si svilupperà la tecnologia IA. Con il loro dominio nella ricerca, nei social media, nella vendita al dettaglio online e negli app store, queste aziende hanno quasi il monopolio dei dati degli utenti e diventano i principali fornitori di IA per tutti gli altri operatori del settore. Una tale concentrazione di potere è pericolosa perché rischia che le grandi aziende tecnologiche impongano ai governi democraticamente eletti.

* Fonte: LIBERTIES

image_pdfimage_print

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *