14/04/2026
Il Confronto Home » Attualità » DIRITTO E NUOVE TECNOLOGIE – Il Verdetto in un Algoritmo: la giustizia “senza filtri” del Mercy Capital Court

DIRITTO E NUOVE TECNOLOGIE – Il Verdetto in un Algoritmo: la giustizia “senza filtri” del Mercy Capital Court

bilancia della giustizia con elementi digitali
Condividi l'articolo

Dal film Mercy alla realtà: riflessioni sui limiti e le implicazioni della giustizia basata sugli algoritmi. A partire da Mercy – Sotto accusa (Mercy, Timur Bekmambetov, 2026)

di Bruno Marfé

Il cinema distopico ci ha abituati a macchine ribelli e intelligenze artificiali tiranniche. Eppure, Mercy compie un’operazione più sottile — e per questo più inquietante: non immagina un’IA che opprime l’uomo, ma una che lo sostituisce proprio laddove l’uomo ha sempre fallito, nella pretesa di essere giusto.

La Los Angeles del futuro in cui si muove il detective Chris Raven non è dominata dalla paura della tecnologia, ma dalla fiducia assoluta in essa. Il Mercy Capital Court rappresenta l’apice di questa fiducia: un sistema giudiziario interamente assistito — e di fatto governato — da un’intelligenza artificiale, Maddox, chiamata a garantire ciò che la giustizia umana non è mai riuscita a offrire pienamente: imparzialità.

Il processo a Raven, scandito da novanta minuti implacabili, non è soltanto una corsa contro il tempo. È una sfida filosofica tra due modelli di verità: quella fallibile, contraddittoria e umana, e quella computazionale, coerente e statisticamente inattaccabile.

Mercy – Sotto accusa (Mercy, Timur Bekmambetov, 2026)
Mercy – Sotto accusa (Mercy, Timur Bekmambetov, 2026)

1. La democrazia dei dati: il giudice come super-avvocato

L’intuizione più potente del film è il ribaltamento del concetto stesso di difesa.

Nel Mercy Capital Court non esiste più l’asimmetria tra accusa e difesa determinata dalle risorse economiche. L’imputato non deve “procurarsi” la verità: la verità — o meglio, l’insieme totale dei dati disponibili — gli viene consegnata.

L’accesso è totale. Database, registrazioni, tracciamenti GPS, comunicazioni digitali: ogni frammento dell’esistenza diventa elemento potenziale di prova. L’analisi è integrata. Chris Raven non si difende da solo, ma attraverso la capacità di Maddox di connettere informazioni che nessuna mente umana potrebbe tenere insieme.

Soprattutto, viene meno il pregiudizio.

Dove un giudice o una giuria potrebbero essere influenzati dal passato dell’imputato — l’alcolismo, gli scatti d’ira, le fragilità personali — l’algoritmo tratta ogni elemento come una variabile. Non esistono colpe morali, solo correlazioni statistiche. Non esiste il “mostro”, ma soltanto una probabilità.

È, in apparenza, la realizzazione più pura dell’ideale illuminista di una giustizia uguale per tutti.

2. La tirannia della soglia: quando la vita vale il 5,5%

È proprio questa perfezione apparente a rivelare la sua natura più inquietante.

Nel sistema del Mercy Court, la differenza tra la vita e la morte non risiede in una convinzione, ma in una soglia numerica. La colpevolezza non è un giudizio, ma una percentuale. E quella percentuale decide.

“Passare dal 97,5% al 92% di colpevolezza non è una ricerca della verità, è una negoziazione con un calcolatore.”

Il film ci costringe così a confrontarci con una domanda radicale: cosa accade quando il “ragionevole dubbio” — categoria intrinsecamente umana — viene tradotto in un parametro matematico?

Se la probabilità si ferma al 92,1%, il sistema esegue la condanna. Non perché sia certo, ma perché è sufficientemente certo.

In questo scarto minimo si consuma una trasformazione epocale: la giustizia non è più un processo interpretativo, ma una funzione di calcolo. Eppure, è proprio in quelle zone grigie — in quelle anomalie che sfuggono alla statistica — che spesso si annida la verità.

L’algoritmo non sbaglia: semplifica. E nel semplificare, rischia di eliminare ciò che non è quantificabile, ma resta essenziale.

3. Il fattore umano: l’unico vero bug del sistema

Il colpo di scena finale spezza definitivamente l’illusione di un sistema perfetto.

Maddox non ha fallito. Non ha condannato ingiustamente per errore di calcolo. La distorsione nasce altrove: nella manipolazione umana dei dati.

Il tradimento di Jaq Diallo rivela una verità tanto semplice quanto devastante: nessun sistema può essere più integro di chi lo governa. Nel tentativo di proteggere l’infallibilità della macchina, l’essere umano introduce la più antica delle ingiustizie — l’alterazione della verità.

È un paradosso potente: la tecnologia progettata per eliminare il bias umano finisce per amplificarlo, proprio perché l’uomo non accetta l’idea che la macchina possa essere fallibile.

4. Dal cinema alla norma: l’algoritmo è già tra noi

Se il Mercy Capital Court appare come una costruzione distopica, la sua logica è già parte del nostro presente.

Sistemi algoritmici vengono utilizzati, in diversi contesti, per orientare decisioni che incidono profondamente sulla vita delle persone. Negli Stati Uniti, strumenti come COMPAS supportano la valutazione del rischio di recidiva nei procedimenti giudiziari. In Europa, il percorso normativo culminato nell’AI Act ha riconosciuto esplicitamente i rischi legati all’uso dell’intelligenza artificiale nei contesti ad alto impatto sui diritti fondamentali.

Ma il punto non è soltanto giuridico.

Ogni giorno deleghiamo a sistemi automatizzati decisioni che riguardano credito, lavoro, visibilità sociale. Algoritmi invisibili selezionano, classificano, escludono. La promessa è sempre la stessa: ridurre l’errore umano attraverso il calcolo.

E tuttavia, come nel Mercy Court, il problema non è l’algoritmo in sé, ma ciò che lo alimenta: dati incompleti, distorti, selezionati secondo logiche che restano umane — troppo umane.

Vale la pena ricordare, infine, un dettaglio non secondario: il film è prodotto da Amazon MGM Studios, e la piattaforma Ring — di Amazon — compare esplicitamente tra le fonti di sorveglianza del sistema Mercy. Una circostanza che alcuni critici hanno letto come propaganda involontaria dell’ecosistema di sorveglianza privata. Per chi si occupa di diritto e tecnologia, la domanda è immediata: chi possiede i dati che alimentano la giustizia algoritmica?

La giustizia algoritmica, in questo senso, non è un futuro remoto. È una realtà già operativa, che richiede non fiducia cieca, ma consapevolezza critica.

Nota metodologica

Mercy ha incassato giudizi severi dalla critica cinematografica — forse a ragione, sul piano della forma. Ma c’è un piano su cui il film non è stato letto: quello della pertinenza giuridica e filosofica. Questa rubrica non misura la qualità estetica dei film che usa come pretesto. Misura la pertinenza delle domande che sollevano. E su questo piano, Mercy merita attenzione.

Conclusione

Il caso di Chris Raven ci consegna una lezione ambivalente.

Un’intelligenza artificiale può essere uno strumento straordinario di difesa, capace di individuare connessioni che sfuggono all’intuizione umana. Può ridurre arbitri, velocizzare processi, ampliare l’accesso alla verità.

Ma non può sostituire la responsabilità.

Finché l’ingresso dei dati e l’interpretazione dei risultati resteranno nelle mani dell’uomo, nessun sistema potrà dirsi veramente neutrale. E forse, più profondamente, nessuna giustizia potrà mai essere completamente “senza filtri”.

Perché il filtro, in fondo, non è la macchina.

È l’essere umano che la costruisce. E la domanda non è se affideremo la giustizia agli algoritmi — è se saremo capaci di restare umani mentre lo facciamo.

Notizie sull'Autore


Condividi l'articolo

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *