top of page
  • Immagine del redattoreErasmondo

La discriminazione algoritmica

Che cos’è e come si ripercuote nella vita di tutti i giorni

di Beatrice Bova



 

In questo articolo parliamo di un fenomeno molto diffuso all’interno dei motori di ricerca: la discriminazione algoritmica. Prima di iniziare è opportuno dare una definizione di algoritmo. Per algoritmo si intende una strategia che serve per risolvere un problema; è costituito da una sequenza finita di operazioni e consente di risolvere tutti i quesiti di una stessa classe. Inoltre, si sono sviluppati dei bias, ovvero dei pregiudizi, che gli algoritmi hanno, dovuti ai bias che i loro progettisti hanno, e che quindi hanno trasmesso alle macchine.

Sono proprio questi ultimi l’argomento dell’articolo.

Prima di addentrarci nel centro del discorso bisogna fare un’altra premessa: gli algoritmi, e quindi anche le informazioni che portano con sé, nascono grazie alle persone che li programmano, i programmatori. Grazie alla presenza di questi calcoli si è sviluppata l’Intelligenza Artificiale, che non potrebbe esistere (anzi, alcuni sostengono che di per sé non esiste) senza. Per questo gli algoritmi sono presenti in quasi tutti i dispositivi elettronici che ognuno di noi usa quotidianamente. Di base non sono un problema, anzi facilitano di molto alcune azioni, ma iniziano ad essere sbagliati moralmente quando diventano molesti e dannosi.

Ma come succede ciò?

Bene, diverse ricerche hanno confermato che si è verificato un problema alla base nell’istruzione degli algoritmi, ovverosono state inserite delle informazioni sbagliate; diventa un problema ancora più grave se si pensa che molti algoritmi ne copiano altri già difettosi, facendo persistere il problema; questa situazione si verifica frequentemente.

Basta pensare che gli algoritmi, come detto sopra, hanno a disposizione una quantità finita di informazioni; ciò non facilita quindi un processo di sviluppo, proprio perché non hanno molti elementi con cui confrontare i propri “giudizi”.

Questo malfunzionamento non è facile da riparare, infatti non basta, come molti pensano, “correggere” le informazioni sbagliate, perché queste sono state ignorate, e quindi hanno continuato ad esistere, per molto tempo fin quando non si è fatto un audit indipendente, ovvero un’attività di controllo che viene applicata nell’ambito aziendale, e che per essere indipendente deve essere condotta da soggetti non dipendenti dall’azienda (se volete maggiori informazioni: https://www.bcbcertificazioni.com/blog/cos-e-un-audit https://www.netinbag.com/it/business/what-is-an-independent-audit.html) ; inoltre la quantità di dati è sempre in aumento e questo facilita l'insabbiamento del problema.

Come già abbiamo detto, questi bias sono un danno serio per la società perché influenzano la nostra vita in modo diretto. Di seguito si possono trovare alcuni esempi.

Molti episodi spiacevoli si sono sviluppati a seguito di problemi riguardante il software di riconoscimento facciale, infatti diversi studi hanno dimostrato che alcuni sistemi trattano le etnie con diversa precisione: per i maschi bianchi si ha una precisione del 99%, per le donne nere è del 34%; questo è dovuto al fatto che le informazioni di quegli algoritmi si basano soprattutto su uomini bianchi, tramite le Informazioni inserite dai programmatori.

Proprio per quest’ultima ragione, alcuni ricercatori hanno potuto capire il motivo per cui gli algoritmi vedono in modo diverso gli uomini dalle donne; ma la cosa più sorprendente che hanno scoperto è che le donne venivano etichettate con un rating (giudizio di affidabilità che serve per valutare la capacità di restituire un prestito e coprire i debiti.) più basso rispetto ai loro colleghi uomini, tra l’altro i criteri di giudizio che venivano associate loro erano basate sull’età e sull’aspetto fisico. Un argomento simile è stato trattato il 24 marzo 2000 con un articolo intitolato Gender Pay Gap: il divario retributivo di genere.


 

Altre problematiche sono emerse per quanto riguarda la giustizia: infatti negli USA la ACLU (American Civil Liberties Union) ha usato Recogniction (sistema di riconoscimento facciale, usato anche da Amazon) mescolando le foto dei parlamentari con le immagini presenti nel database. Il risultato? 5% di corrispondenza con dei criminali, ovvero che la faccia dei parlamentari risultava la stessa di alcuni criminali (cosa non vera), di questa percentuale il 39% degli imputati era di carnagione scura.

Sempre negli Stati Uniti viene usato un software chiamato Compas: questo assegna un punteggio da uno a dieci all’imputato, e il “voto” assegnatogli indica con quanta probabilità la persona possa compiere un altro reato. Sulla base di questa teoria è stato condannato a sei anni di carcere un uomo, Eric Loomis, che era stato arrestato per non essersi fermato ad un controllo della polizia. In ogni caso è stata messa in discussione l’affidabilità di Compas e per questo si sono svolte diverse indagini, che trovate spiegate nel dettaglio qui: https://www.internazionale.it/notizie/ed-yong/2018/02/16/algoritmo-valutazione-rischio-tribunale

Un altro caso che si può citare , tra i tanti, è la spiacevole esperienza accaduta ad una donna che aveva perso il suo bambino, la quale, nonostante la sua gravidanza si fosseinterrotta, aveva continuato a ricevere pubblicità riguardante la gravidanza o i bebé.

Ma quindi come si può rimediare a tutto ciò? Si può fare in modo che gli algoritmi non diventino discriminatori?

Un modo per rendere i rischi limitati è usare l’etica dei dati; in questo caso gioca un ruolo importante l’Europa, che infatti ha pubblicato una prima versione del Codice Etico secondo cui l’intelligenza artificiale non dovrà mai danneggiare la dignità, la sicurezza fisica, psicologica e finanziaria degli esseri umani, degli animali e della natura; inoltre il Consiglio d’Europa ha messo in guardia contro il rischio di “discriminazione sociale” causata dagli algoritmi grazie ad una recente dichiarazione, come meglio spiega l’articolo seguente: https://www.agendadigitale.eu/cultura-digitale/intelligenza-artificiale-tutti-i-pregiudizi-bias-c.

Speriamo che l’articolo vi sia piaciuto, e nel caso vi interessi approfondire l’argomento eccovi alcuni link su qui potete informarvi maggiormente:

 

54 visualizzazioni0 commenti

Post recenti

Mostra tutti
bottom of page