Un’Intelligenza Artificiale più equa

L’intelligenza artificiale viene considerata una tecnologia emergente, un’innovazione in fase embrionale e ad alto impatto, capace di rompere gli equilibri esistenti e di guidare la ricerca e la creazione di nuovi e dirompenti modelli di business.
Il potere dell’intelligenza artificiale di modificare la nostra società è ancora del tutto sconosciuto, ma sicuramente molto elevato. Il rischio è che questa innovazione tecnologica, invece di  eliminare le disuguaglianze e aumentare il benessere collettivo, possa andare nella direzione opposta, creando divari netti e diminuendo la libertà delle persone.   

Ma come possiamo far sì che più persone possano beneficiare dell’avanzamento tecnologico o rendere l’intelligenza artificiale più equa? Quando parliamo di equità, stiamo parlando dell’idea che ogni essere umano dovrebbe avere pari opportunità di partecipare e trarre beneficio dalle strutture economiche e di governance. 

Applicazione dell’IA: Machine Learning

Il potenziale dell’intelligenza artificiale e del machine learning è enorme. L’intelligenza artificiale attinge al bisogno umano di maggiore efficienza e più strumenti che possano permetterci di migliorare le cose che vogliamo fare.  L’apprendimento automatico attinge alla nostra capacità di riconoscere modelli ed estende il nostro crescente desiderio di previsione.

Queste idee sono potenti: possono aprire le porte per reinventare il nostro presente e futuro. Ma poiché viviamo in una società fatta di persone –  e purtroppo anche di grandi ingiustizie, – le applicazioni di queste tecnologie non risultano essere sempre positive per tutti.

Ad esempio, un’applicazione corrente dell’apprendimento automatico è la sorveglianza predittiva (predictive policing). Gli algoritmi di sorveglianza predittiva decidono dove inviare la polizia in base a dove vi sono più probabilità che avvengano dei crimini (proprio come nel film Minority Report, ma con algoritmi anziché precog).

L’idea è che se siamo in grado di prevedere dove si verificherà il crimine, possiamo essere più efficienti nel decidere dove inviare la polizia.

Efficienza limitata

Da un punto di vista dell’efficienza questo sistema risulta ottimale, ma presenta dei limiti.

Dati limitati

Nel mondo reale, quando dobbiamo prendere una decisione ci affidiamo alle informazioni e ai dati che riusciamo a raccogliere da varie fonti.

Per ogni informazione che riceviamo, andiamo a contestualizzare e a capire se la fonte è affidabile o meno. In questo caso i computer non sono come le persone, non hanno la capacità di capire la situazione o avere accesso alle esperienze precedenti per poter prendere delle decisioni.

Gli algoritmi di machine learning analizzano solo i dati che noi inseriamo, anche se essi sono sbagliati o non corretti. Nel caso della sorveglianza predittiva, l’algoritmo si basa sui dati dei crimini accaduti in passato. Alcuni studi hanno dimostrato che alcune minoranze sono meno propense a chiamare la polizia.

Quindi i dati su dove si verifica il crimine, includeranno sempre molto meno queste informazioni, il che significa che si rifletterà su il risultato dell’algoritmo che non terrà conto di questo fatto. 

Trasparenza

È facile vedere gli output prodotti dal machine learning, può essere più difficile capire  perché un algoritmo abbia generato quel risultato rispetto ad un altro.

Gli algoritmi sono così complicati che i processi che ne regolano il funzionamento sono sconosciuti persino alle persone che li creano. Molto spesso gli algoritmi sono protetti da segreti commerciali in modo tale che le aziende che li sviluppano non possano perdere il loro vantaggio competitivo.

Ma nel caso di un algoritmo come quello della sorveglianza predittiva, in cui gli effetti dell’intelligenza artificiale impattano sui singoli individui (immaginatevi il vostro quartiere invaso dalla polizia senza che voi ne sappiate nulla), le persone devono essere informate su quali siano i parametri e i dati utilizzati e come vengano elaborati.

Inoltre, questi algoritmi vengono sviluppati senza tenere in considerazione il punto di vista o l’esperienza del singolo individuo su cui un algoritmo del genere ha un impatto elevato (ripeto immaginatevi la polizia sotto casa da un giorno all’altro, non credo ringraziereste l’intelligenza artificiale).

È importante che le persone e le comunità abbiano voce in capitolo su quali sono i problemi da affrontare e come viene utilizzata la tecnologia. 

Qualità e trasparenza dei dati per una maggiore equità

L’intelligenza artificiale può essere equa e portare benessere alla società, se nel momento dell’ideazione di un algoritmo vengono tenuti in conto questi due aspetti: la qualità dei dati e il livello di trasparenza.

Sicuramente sistemi ottimizzati dall’IA possono aiutarci ad essere maggiormente efficaci ed efficienti, ma non dobbiamo trascurare i rischi di questa tecnologia. 

Viviamo in una società sempre più diversa e frammentata; se si creano algoritmi di intelligenza artificiale che hanno un impatto sulle persone, dobbiamo pensare profondamente agli effetti che potranno avere.