Un’inchiesta pubblicata dal quotidiano francese Le Monde e dall’organizzazione di giornalismo investigativo Lighthouse Reports ha rivelato che, per più di un decennio e senza alcuna consultazione pubblica, il CNAF, agenzia di sicurezza sociale francese ha utilizzato un algoritmo di apprendimento automatico su vasta scala nella caccia alle frodi nel campo del welfare. Ogni anno, quasi la metà della popolazione francese viene classificata silenziosamente in base a un punteggio di rischio segreto compreso tra 0 e 1. L’unico modo per conoscere il proprio il punteggio è fare una richiesta di accesso ai soggetti ai sensi del Regolamento generale sulla protezione dei dati.
La Francia, infatti, è uno dei primi membri di un club crescente di nazioni che sperimentano la tecnologia predittiva su popolazioni vulnerabili con conseguenze profonde, soprattutto sui cittadini più deboli. “Con quasi la metà della popolazione francese che viene esaminata ogni anno dal modello, in linea di principio un’ampia varietà di persone è a rischio di essere segnalata”, scrive Lighthouse, che ha testato il funzionamento dell’algoritmo di CNAF. “Abbiamo scoperto che [l’algoritmo] in pratica segnala solo le persone più vulnerabili, mentre è quasi impossibile che le persone più agiate ottengano un punteggio abbastanza alto da essere indagate”.
L’inchiesta sull’algoritmo francese è l’ultimo di una serie di lavori di Lighthouse Reports sull’uso di algoritmi e intelligenza artificiale nel campo del welfare. L’organizzazione si è occupata anche di casi simili in Spagna, Paesi Bassi in campi come la sanità e la profilazione razziale.