APP Web Agency - APP Dipinge
#appblog

Colpevole o innocente? Lo decidono gli algoritmi predittivi

Pubblicato il: 15 maggio 2017

L’Intelligenza Artificiale applicata alla Giustizia si serve di algoritmi predittivi, sistemi di apprendimento automatico in grado di fare previsioni sulle azioni e i comportamenti delle persone.

 

Dicendo algoritmi predittivi o intelligenza artificiale, pensiamo subito a robot, androidi, Terminator, Matrix e Guerre Stellari. Eppure di fantascientifico hanno ormai poco, anzi sono sempre più un aspetto concreto del nostro quotidiano.

 

 

Ormai l’utilizzo di algoritmi predittivi ci facilita la vita in molti casi, dalla guida dell’auto alla ricerca di un ristorante e il tutto senza neanche accorgercene. Quando, però, sono utilizzati in settori più delicati, come il campo medico o la giustizia, nascono profondi dubbi e grandi incertezze.

 

L’assistente vocale del nostro telefono non ci spaventa quanto l’ipotesi di un supporto legale affidato a un software. È normale e probabilmente anche giusto. Le possibili conseguenze in termini di errore del sistema presentano livelli di preoccupazione non paragonabili.

 

Inizialmente, questi software erano utilizzati dagli avvocati come strumenti di supporto per immagazzinare una mole grandissima di dati e di informazioni da restituire sotto forma di dati aggregati utili caso per caso.

 

Gli algoritmi predittivi, oggi, presentano diverse possibilità d’uso, come, ad esempio, supporto nella decisione se valga la pena o meno rischiare le spese di una causa, prevedendo l’esito del processo. Oppure, come fornitori di assistenza legale nella compilazione di richieste d’asilo o per contestare una multa.

 

In alcuni paesi europei, ma soprattutto negli Stati Uniti, gli algoritmi predittivi sono ampiamente utilizzati e, non solo, come strumenti di supporto alle professioni legali. Il loro utilizzo, infatti, li vede sempre più protagonisti della scena giudiziaria come agenti di intelligenza artificiale in grado di sostituirsi al giudice nella decisione dei casi.

 

Attualmente, i dipartimenti di giustizia degli Stati Uniti utilizzano questi algoritmi per determinare il livello di “rischio” di un imputato, calcolando ad esempio la probabilità che scappi in caso di libertà condizionata oppure l’eventualità che commetta un altro crimine.

 

Lo scenario, in effetti, ricorda il film di fantascienza di Steven Spielberg, “Minority Report”, che narra di un sistema capace di prevedere i crimini e dunque prevenirli, punendo i “futuri” criminali a priori.

 

Un imputato e una condanna da emettere, dunque. A chi spetta la decisione?

 

Nel Wisconsin, Eric Loomis, arrestato per ricettazione di un’auto e resistenza a pubblico ufficiale, è stato condannato a sei anni di reclusione, una pena particolarmente severa stabilita da un algoritmo predittivo di valutazione del rischio di recidiva.

 

COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) è uno strumento di valutazione dei rischi sviluppato da una società privata, che si basa sulla raccolta e l’elaborazione dei dati contenuti nel fascicolo del processo e sull’esito di un questionario di 137 domande a cui viene sottoposto l’imputato.

 

Il meccanismo di funzionamento dell’algoritmo predittivo non è noto, rendendo così impossibile accertare la validità scientifica dei suoi risultati. Come riporta l’articolo di denuncia di Wired sul caso Loomis, “rispettando la prima legge della tecnologia di Kranzberg, questi algoritmi non sono né buoni né cattivi, ma non sono certamente neutrali”.

 

Quali sono gli aspetti positivi dell’introduzione dell’uso degli algoritmi predittivi?

Obiettività? Garanzia di assenza di pregiudizi? Finalmente la legge sarà uguale per tutti? Macchè!!!

 

L’eterno dubbio su chi controlla i controllori si trasforma in chi controlla i programmatori e le società proprietarie degli algoritmi predittivi!

Sicuramente ci sarà una riduzione dei tempi del processo, ma a quale prezzo? Giudicare è una delle capacità più difficili e controverse degli esseri umani ed è una combinazione di fattori che difficilmente possiamo trasmettere a una macchina, persino a una macchina intelligente!

 

Accantonando le mere questioni tecniche, bisognerebbe riflettere a lungo sulla questione etica che solleva il fatto di essere giudicati da un algoritmo, che non sarà mai in grado di prendere in considerazione tutte le variabili umane, proprio in quanto umane.

 

Non so voi come la pensiate, ma per la prima volta ci si potrebbe considerare veramente fortunati per il ritardo tecnologico dell’Italia!

 

Fonte: Wired.com

Iscriviti alla mia newsletter!

Scaricate la mia company presentation

Seguitemi sui social

A presto,
APP.

APP Web Agency - APP vi saluta