Sono tutte belle intenzioni, ma alcune non sono tecnicamente propriamente realizzabili. Dato che l'IA è una black box non è possibile determinare la causa delle decisioni prese dagli algoritmi in ambito giuridico. Se la sia usa si finisce inevitabilmente per affidare alla macchina la decisione, senza comprenderne minimamente le ragioni profonde e lo si farà proprio allo scopo di ridurre al minimo le tempistiche esonerando l'apparato da ogni responsabilità umana. L'IA può tenere conto di innumerevoli parametri e nessuno può avere speranza di comprendere quali e come questi parametri entrino a far parte di una decisione. Perciò la questione diventa che l'imputato ha sempre il diritto di contestare la decisione presa dall'IA, perchè nessuno può veramente spiegare le ragioni della decisione. Quindi o annulli tutti i processi oppure ci si affida all'IA come un oracolo e da questa si dipende in modo assoluto. Un metodo potrebbe essere quello che l'IA dovrebbe giustificare in modo esplicito le ragioni di una decisione, ma si otterrebbero un numero impressionanate di dati, che nessun umano saprebbe probabilmente come comprendere o riassumere. Quindi dovresti sottoporre i dati ad un'altra IA che riassuma il testo, che però risulterebbe magari solo una interpretazione. Come garantire che un'IA non menta o vada in allucinazione e come determinare quando lo fa? In pratica invece che snellire i processi, si finisce per moltiplicare la loro complessità o durata, o si finisce in mano ad una dittatura oracolare dell'IA.