Vi ricordate di Minority Report? Nel film di Steven Spielberg la polizia di Washington, grazie all’aiuto di un potentissimo software in grado di prevedere i crimini, neutralizza i potenziali colpevoli prima ancora che commettano il fatto. Fantascienza? No. Già da qualche anno molti dipartimenti di polizia negli Stati Uniti adottano programmi che elaborano immense moli di dati per prevenire il crimine. Il sistema informatico, sulla base dell’analisi di un algoritmo, sarebbe in grado di individuare momento e luogo in cui potrebbe avvenire un crimine e le persone che potrebbero commetterlo.

La polemica – Un valido strumento a disposizione della sicurezza nazionale, secondo alcuni; una minaccia alle libertà civili e alla privacy, secondo altri. Sta di fatto che è già polemica negli Stati Uniti sul fatto che questi software non farebbe altro che alimentare vecchi pregiudizi razziali. L’algoritmo, infatti, tende a identificare come soggetti più a rischio gli afroamericani e gli ispanici. Il software raccoglie dati su istruzione, carriera lavorativa, reddito, precedenti penali della persona profilata e le assegna un punteggio. Più è alto, maggiori sono le probabilità che commetta un reato: la polizia, in base ai dati elaborati dal software, provvede poi a rafforzare i controlli in determinate aree.

Ci possiamo fidare? –  Il punto, però, non è tanto se e quanto sia razzista l’intelligenza artificiale. L’Aclu (American Civil Liberties Union) sta conducendo un’importante battaglia per ottenere maggiore trasparenza sugli algoritmi utilizzati dalle forze di sicurezza. Le compagnie private che gestiscono i programmi informatici si rifiutano di divulgare i dati raccolti e non forniscono spiegazioni sul motivo per il quale l’algoritmo giunga a tali conclusioni. Tuttavia, la pressione dell’opinione pubblica sul tema ha spinto recentemente la startup CivicScape, che ha creato un software di predictive policing, a pubblicare il proprio dataset e i codici di elaborazione-interpretazione seguiti dall’algoritmo. Si tratta del primo caso negli Stati Uniti. «Rendendo aperti a tutti i nostri dati e i nostri codici», scrive la società su Github, uno dei più importanti servizi di hosting per progetti software, «vogliamo stimolare il dibattito su Civicscape e sugli altri programmi predittivi che intendono combattere il crimine, nella convinzione che più occhi contribuiscano a migliorare per tutti questi strumenti. Noi non ci serviamo dei dati sull’etnia per fare predizioni; il nostro obiettivo è quello di misurare in maniera oggettiva i dati raccolti e comprendere i risultati forniti dall’algoritmo, senza pregiudizi». Sul tavolo rimangono questioni delicate: qual è il peso dei confirmation bias? Quali sono e chi gestisce gli strumenti di interpretazione degli algoritmi?