E-Mail: [email protected]
- Il progetto SDIRA analizza dati di 100.000-500.000 persone.
- Inclusi "marcatori di salute" predittivi come la salute mentale.
- OASys discrimina autori di reato neri, secondo il MoJ.
Ecco l’articolo:
Il Ministero della Giustizia del Regno Unito sta sviluppando un sistema di “previsione degli omicidi” basato sull’analisi di dati sensibili di centinaia di migliaia di persone. Questo progetto, denominato inizialmente “Homicide Prediction Project” e successivamente rinominato “Sharing Data to Improve Risk Assessment” (SDIRA), ha sollevato notevoli preoccupazioni riguardo alla privacy e alla potenziale discriminazione.
## Dettagli del Progetto e Fonti dei Dati
Il progetto è una collaborazione tra il Ministero della Giustizia (MoJ), l’Home Office, la Greater Manchester Police (GMP) e la Metropolitan Police di Londra. L’obiettivo è utilizzare dati provenienti da diverse fonti, tra cui il Police National Computer e i database della GMP, per identificare individui “a rischio” di commettere omicidi in futuro.
I dati condivisi dalla GMP includono informazioni su un numero compreso tra 100.000 e 500.000 persone, tra cui sospetti, vittime, testimoni, persone scomparse e individui per i quali sussistono preoccupazioni di tutela. Particolarmente allarmante è l’inclusione di “marcatori di salute” che si prevede abbiano un “significativo potere predittivo”, come dati relativi a salute mentale, dipendenze, autolesionismo, suicidio, vulnerabilità e disabilità.

## Precedenti e Rischi di Discriminazione
Il MoJ ha già sviluppato e implementato strumenti di profilazione basati sui dati nel sistema legale penale britannico, come l'”Offender Assessment System” (OASys), utilizzato per prevedere la recidiva. Tuttavia, ricerche dello stesso MoJ hanno dimostrato che questi modelli classificano gli autori di reato neri in modo meno accurato rispetto agli autori di reato bianchi.
Sofia Lyall, ricercatrice di Statewatch, ha definito il progetto “un esempio agghiacciante e distopico dell’intento del governo di sviluppare sistemi di ‘previsione’ del crimine”. Ha avvertito che questo modello, basato su dati provenienti da polizia e Home Office, “rafforzerà e amplificherà la discriminazione strutturale che è alla base del sistema legale penale”, codificando pregiudizi nei confronti delle comunità razzializzate e a basso reddito.
## Reazioni e Preoccupazioni Etiche
Chris Jones, direttore di Statewatch, ha criticato il progetto, sottolineando che i dati utilizzati contengono già pregiudizi nei confronti delle minoranze etniche e delle persone a basso reddito. L’utilizzo di tali dati per creare strumenti di previsione rischia di riprodurre e amplificare tali pregiudizi.
Un portavoce del Ministero della Giustizia ha affermato che il progetto è condotto “solo a scopo di ricerca” e che utilizza dati esistenti su autori di reato condannati per comprendere meglio il rischio di violenza grave. Tuttavia, i documenti acquisiti attraverso le richieste relative alla Libertà d’Informazione mettono in luce come il progetto comprenda informazioni riguardanti individui che hanno avuto rapporti con la polizia, siano essi vittime o testimoni, oppure persone vulnerabili. Ciò provoca ulteriori inquietudini circa la privacy e l’equità.
## Riflessioni sull’Automazione della Giustizia
L’approccio adottato dal Ministero della Giustizia nel Regno Unito porta alla ribalta interrogativi importanti sul ruolo dell’automazione insieme all’intelligenza artificiale all’interno del sistema giuridico. Se da un lato si profetizza un incremento nell’efficienza e nella precisione, dall’altro persiste il pericolo che tali tecnologie possano rinsaldare ed intensificare pregiudizi già radicati; così facendo, si va a compromettere principi imprescindibili quali l’equità e una vera giustizia sociale.
Verso un Futuro di Giustizia Predittiva?
La creazione di un sistema di “previsione degli omicidi” nel Regno Unito rappresenta un punto di svolta nell’applicazione dell’intelligenza artificiale al sistema giudiziario. Se da un lato l’obiettivo di prevenire crimini violenti è nobile e condivisibile, dall’altro l’utilizzo di dati sensibili e algoritmi predittivi solleva interrogativi etici e pratici di non poco conto. La trasparenza, l’equità e la responsabilità devono essere al centro di qualsiasi iniziativa di questo tipo, per evitare di creare un sistema che, invece di proteggere la società, finisca per discriminare e penalizzare ingiustamente i suoi membri più vulnerabili.
Amici, riflettiamo un attimo. L’automazione, in fondo, è semplicemente l’uso di macchine per svolgere compiti che prima erano eseguiti da persone. Nel contesto della giustizia, questo significa affidare ad algoritmi l’analisi dei dati e la formulazione di previsioni. Ma attenzione, perché un algoritmo è tanto imparziale quanto i dati su cui è addestrato. Se i dati riflettono pregiudizi sociali, l’algoritmo li amplificherà.
E qui entra in gioco la scalabilità produttiva: un sistema automatizzato può analizzare un numero enorme di dati in tempi rapidissimi, ma se il processo è viziato all’origine, il risultato sarà una produzione massiva di ingiustizie. La trasformazione digitale, quindi, non è solo una questione di tecnologia, ma soprattutto di consapevolezza e responsabilità.
Un concetto avanzato di automazione, in questo caso, potrebbe consistere nello sviluppo di algoritmi “fair”, addestrati su dati depurati da pregiudizi e sottoposti a costante verifica e controllo da parte di esperti di etica e giustizia. Ma anche in questo caso, la tecnologia non può sostituire il giudizio umano e la capacità di valutare ogni caso nella sua unicità e complessità.
Proviamo a immaginare un futuro in cui la giustizia è interamente gestita da macchine. Un futuro in cui gli algoritmi decidono chi è colpevole e chi è innocente, chi è pericoloso e chi no. Un domani nel quale la libertà e la dignità umana sono ridotte a mere cifre e indici statistici. Un domani che, qualora non si presti la dovuta attenzione, rischia di tramutarsi in una sinistra verità tangibile.