top of page

INTELLIGENZA ARTIFICIALE E GIUSTIZIA PENALE: STRALI TRA LE FIRMATARIE DELLA LETTERA AL PARLAMENTO UE

Con lo sviluppo, negli anni più recenti, di nuove tecnologie e con l’ampio uso di dispositivi tecnologici nella nostra quotidianità si affaccia anche il problema di come tali tecnologie vengano utilizzate nell’ambito della giustizia penale. Di recente, infatti, si è assistito ad un incremento dell’uso di tali tecnologie, tra le quali i sistemi di intelligenza artificiale (IA), nell’ambito del procedimento penale e da ciò sorgono preoccupazioni relativamente all’impatto che tali tecnologie avrebbero (e hanno) sui diritti e le garanzie processuali.



Per questi motivi la Commissione per le libertà civili, la giustizia e gli affari interni (LIBE) (NdA commissione permanente del Parlamento Europeo) ha presentato a luglio scorso un rapporto sull’intelligenza artificiale nel diritto penale e sul suo utilizzo da parte delle autorità giudiziarie in tale ambito. Nel rapporto la LIBE prende una posizione forte sui rischi di lesioni dei diritti fondamentali degli individui collegati all’impiego di sistemi di IA da parte delle forze dell’ordine. In particolare, la LIBE chiede che venga impedito l’utilizzo di tecnologie di riconoscimento facciale per motivi di polizia. La recente proposizione di alcuni emendamenti al rapporto ha portato all'attivazione rapidissima della rete delle organizzazioni che, come Strali, si occupano di litigation nell’ambito dei diritti digitali.


Ma facciamo un passo indietro e spieghiamo un po’ cosa intendiamo per IA nel procedimento penale prima di passare a parlarvi di quello che è successo.


L’IA viene utilizzata fin dalla fase investigativa, ad esempio, per l’individuazione di sospettati, o addirittura in una fase precedente alla commissione di un reato, per capire dove o da chi un certo reato possa essere commesso in futuro.


I sistemi di IA possono poi essere utilizzati nella fase pre-processuale dall’autorità competente, il giudice, per decidere se rilasciare l’accusato su cauzione ovvero, in una fase successiva, se rinviare a giudizio o ancora se condannare o assolvere l’imputato. L’utilizzo di queste tecnologie rappresenta un rischio (e una minaccia) per la garanzia – fondante il sistema processuale penale – della presunzione di innocenza.


E ancora, quando tali nuove tecnologie sono utilizzate durante la fase processuale possono grandemente impattare – come detto in precedenza – sulle garanzie del giusto processo. Si può menzionare, ad esempio, il principio di immediatezza del processo, e dunque la necessità che l’imputato sia presente in aula (salvo eccezioni esplicitate dalla legge); o il principio di pubblicità delle udienze, che verrebbe meno durante processi “virtuali”; o ancora, il diritto ad una difesa effettiva, anch’esso limitato, soprattutto qualora l’imputato si trovi in detenzione, poiché quest’ultimo non avrebbe accesso a colloqui confidenziali con il proprio legale rappresentante.


Per questo, come proposto dalla Vice-Presidente Dragicevic-Dicic della organizzazione International Commission of Jurists durante un evento a lato al Consiglio dei Diritti Umani tenutosi lo scorso 30 settembre dedicato al tema, dovrebbe spettare al giudice la decisione caso per caso se “concedere” il processo virtuale e, nel caso, prendere ogni misura necessaria per assicurare le garanzie del giusto processo.


Inoltre, altre questioni vengono sollevate circa l’utilizzo di IA e nuove tecnologie nell’ambito della giustizia penale, tra cui la difficoltà di accedere a mezzi di ricorso quando i propri diritti sono violati a causa dell’utilizzo di questi dispositivi ; o ancora la questione della privatizzazione (cioè lo sviluppo dei sistemi di IA da parte di società private) e il successivo uso da parte di autorità pubbliche.


Ci dirigiamo verso la conclusione.


Come anticipato all’inizio di questo articolo, la LIBE nel suo rapporto si esprime con termini molto duri. La richiesta che viene fatta al Parlamento è quella di prendere posizione netta a favore dell’utilizzo limitato (e regolato) di queste tecnologie. Ne vengono sì riconosciuti i vantaggi, ma anche i potenziali rischi sui diritti fondamentali riconosciuti a livello europeo: vengono menzionati il processo decisionale opaco, i diversi tipi di discriminazione, l'intrusione nella nostra vita privata, le sfide alla protezione dei dati personali, la dignità umana e la libertà di espressione e di informazione. E questi rischi sono ancora più accentuati nel campo del diritto penale, dove è in gioco anche il diritto fondamentale dell’individuo alla propria libertà e sicurezza, la presunzione di innocenza, il diritto ad un rimedio efficace il principio del giusto processo.


Fino a qui, quindi, tutto bene.


A fine settembre, infatti, vengono presentati tre emendamenti al rapporto dal contenuto preoccupante. Nel primo emendamento (A9-0232/1) viene proposto che le forze di polizia siano autorizzate ad utilizzare sistemi di IA per prevedere la criminalità futura. Nel secondo emendamento viene fortemente ridotto l’impatto della moratoria relativa all’utilizzo dei sistemi di riconoscimento facciale nei luoghi accessibili al pubblico. Nel terzo emendamento viene richiesto espressamente di permettere la sorveglianza biometrica di massa “nella misura in cui il suo utilizzo sia strettamente necessario per obiettivi molto specifici come la ricerca mirata di vittime di reati o la prevenzione di un attacco terroristico o di un'altra minaccia imminente alla vita o all'integrità fisica di una persona” e purché sia soggetta ad un’autorizzazione giudiziaria preventiva che ne limiti l’applicazione sia spaziale che temporale.


Riassumendo, tramite questi emendamenti si andrebbe a tagliare le gambe al rapporto, limitando moltissimo la sua efficacia (e quindi la protezione dei diritti).


E’ per questo motivo che StraLi si è unita ad altri 41 membri della società civile nel firmare una lettera ai parlamentari europei affinché votassero contro questi emendamenti.


E così è stato: vittoria!


Tale azione, tra l’altro, si inserisce nell’ambito della campagna Reclaim Your Face volta a richiedere alla Commissione europea di proibire gli usi indiscriminati o arbitrariamente mirati della biometria che possono portare a una sorveglianza di massa illegale. Se vuoi contribuire anche tu, firma qui!


Leggi qui i comunicati stampa della campagna Reclaim Your Face e di EDRi.


A cura di Serena Zanirato e Alice Giannini

bottom of page