INTELLIGENZA ARTIFICIALE, GIUSTIZIA E FATTORE UMANO

*

di Danilo Cilia e Alessandro Marzagalli

La rivoluzione tecnologica in atto porterà alla scomparsa delle professioni legali?

È il tema posto dall’utilizzo su larga scala dell’Intelligenza Artificiale, dotata di capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività.

Vero è che l’uso massivo di questi sistemi riguarda, ad oggi, la sola IA “debole” (quella, cioè, programmata per risolvere problemi “come se” avesse un cervello umano, e che necessita quindi della presenza dell’uomo per assolvere ai suoi compiti); e che per la IA “forte”, capace di replicare in tutto e per tutto l’essere umano, occorrerà invece aspettare ancora un po’ (non molto, si dice però).

Ma non tragga in inganno l’aggettivo “debole”. Enormi sono infatti le sfide che l’uso di questi sistemi pone già adesso, anche in ambito legale.

È innegabile che l’IA sia già in grado di svolgere molte delle attività in passato riservate al professionista umano, ma con efficienza enormemente maggiore: dalla gestione di scadenze e comunicazioni, all’archiviazione e gestione di dati, dalle ricerche giurisprudenziali alla redazione di atti giudiziari.

Siamo onesti: a parità di risultato, quanti studi legali saranno disposti ad investire ancora su collaboratori umani, quando potranno servirsi delle macchine e risparmiare, così, enormi quantità di tempo e di denaro?

Probabilmente nessuno, alla lunga. E, in effetti, la competitività di uno studio professionale si misurerà, sin dai prossimi mesi, dalla sua capacità di utilizzare in maniera intelligente queste nuove… intelligenze.

Eppure, l’uso indiscriminato dell’IA potrebbe avere risvolti inattesi, e condurre a un finale diverso da quello che molti, oggi, si affrettano a scrivere.

Anzitutto, gli avvocati migliori saranno ancora, non solo i più preparati, ma anche i più saggi, i più scaltri, i più bravi a “difendere”. La capacità di immedesimarsi nel problema del cliente, mantenendo al contempo il giusto distacco per suggerirgli la via migliore, rimarrà una qualità più importante delle hard skills condivise con le macchine, quali la conoscenza enciclopedica di norme e sentenze.

L’avvocato, inoltre, ha oggi un dovere di riservatezza (art. 28 Codice Deontologico Forense) che, scommettiamo, manterrà anche in futuro: la privacy continuerà ad essere un valore primario, che i clienti continueranno a pretendere e dunque ad esser disposti a pagare. L’avvocato che sarà in grado di continuare a garantire al cliente questo valore – anche attraverso un uso limitato e sapiente delle macchine – potrebbe avere, paradossalmente, un appeal maggiore dei colleghi (solo) high-tech. Da questo punto di vista, dare indiscriminatamente in pasto alle IA – specie alle LLM (Large Language Systems) – dati sensibili, potrebbe non essere una scelta vincente per l’avvocato. Da un punto di vista non solo deontologico, ma anche economico.

Tanto più che va già affermandosi, nel mondo delle professioni, il principio che l’avvocato non possa lucrare sul tempo impiegato dalla macchina per produrre un risultato che poi rivenderà al cliente. Possiamo farci pagare il nostro tempo, non quello della macchina.

Correttezza (art. 6 CDF) che imporrà quindi la comunicazione trasparente dei risultati generati “artificialmente”: vanno in questa direzione le linee guida per l’utilizzo dell’IA, pubblicate lo scorso giugno dalla Federazione degli Avvocati Europei (FBE – Fédération des Barreaux d’Europe), seguite recentemente da quelle degli avvocati di San Francisco (“Practical Guidance for the Use of Generative Artificial Intelligence in the Practice of Law”State Bar of California, pubblicate il 16 novembre 2023).

Per il praticante ed aspirante avvocato, inoltre, la padronanza di queste tecnologie costituirà senza dubbio un elemento di distinzione sul mercato, ma nasconderà anche un’insidia grave: quella di perdere il dominus come maestro, e di dover andare “a scuola” dalle macchine. Con un curioso e paradossale rovesciamento di ruoli. Il docente è da sempre colui che, educando il discente, riesce a “tirargli fuori” (educare da e-ducere), la verità, attraverso l’esperienza della vita (non scholae sed vitae discimus). Presto, in studio, potrebbe accadere il contrario, con il discente a “tirar fuori” il sapere dal docente: il praticante tirerà fuori risposte dalla macchina, e così facendo – paradossalmente – la istruirà. Il discente maestro del docente. E tutto al di fuori della vita vera.

Ma, c’è da scommetterci, l’IA porterà a inevitabili cambiamenti anche all’interno degli uffici giudiziari.

Per la pubblica accusa, il tema principale sarà quello della giustizia predittiva (magistralmente raccontata da Spielberg in Minority Report). La capacità di prevedere la commissione di un crimine consentirà di prevenirlo: con quali rischi, per i principi fondamentali che ispirano il processo penale di una società democratica (la presunzione di innocenza, su tutti), è facile immaginare. In questo campo, peraltro, il futuro è oggi: negli Stati Uniti esistono già, infatti, le prime sperimentazioni di algoritmi per la valutazione della pericolosità sociale e della recidiva dell’imputato.

Dalla prospettiva del giudice, infine, la domanda che molti già si fanno è: verrà mai applicata l’IA per formulare giudizi e scrivere sentenze? Anche in questo caso, l’eliminazione del fattore umano genererà, prevedibilmente, effetti contraddittori.

Da un lato, il giudice-macchina diventerebbe finalmente immune ai condizionamenti esterni, con la realizzazione del mito illuminista del giudice “bocca della legge”. Le decisioni sarebbero impermeabili a quei fattori che da sempre condizionano il giudizio umano: si pensi alle probabilità notevolmente maggiori che oggi ancora si hanno di ottenere sentenze favorevoli all’inizio della mattinata, dopo la pausa pranzo e nel giorno del compleanno di un giudice [1]. Tutto questo, con l’IA, non ci sarebbe più.

Dall’altro lato, però, l’automazione delle decisioni condurrebbe inevitabilmente alla loro deumanizzazione ed al progressivo distacco dalla realtà, con sempre minori margini per le impugnazioni (cosa dovremo più correggere, se le macchine non sbaglieranno più?) e per le evoluzioni giurisprudenziali conseguenti ai cambiamenti sociali.

La sentenza, dunque, come atto pre-visto, frutto di un mero calcolo matematico? A noi pare che la natura degli attuali strumenti algoritmici non sia, o non sia ancora, propriamente compatibile con lo svolgimento dell’attività intellettuale tipica del giudice, quali la valutazione di comportamenti, l’interpretazione di norme e la redazione di sentenze: l’esattezza di queste macchine, basate su un modello di apprendimento automatico, dipende totalmente dal tipo di dati sui quali il programma si addestra. Con la conseguenza che, laddove l’IA non arriverà a conoscere, darà la risposta statisticamente più probabile, anche inventandola: proprio come accaduto a quell’avvocato di New York, cui il giudice ha contestato di aver presentato in giudizio un atto prodotto attraverso l’utilizzo di un sistema di IA, e contenente la citazione di ben sei sentenze fasulle.

È vero: con le macchine non ci sarebbe più spazio per la giustizia alla rovescia del giudice-scimmione, che nel “Pinocchio” di Collodi si era commosso a tal punto per lo sfortunato burattino, e per la truffa da lui subita con le monete d’oro al Campo de’ Miracoli, da… sbatterlo in galera. Ma è anche vero che il giudice-IA non avrebbe più alcuna empatia, né per l’imputato né per la persona offesa dal reato (e non osiamo immaginare quanta ne avrebbe per l’avvocato e le sue arringhe!).

E cosa rimarrebbe, allora, di quella fondamentale funzione della giustizia, che la Storia ci ha insegnato consistere (anche) nella sublimazione collettiva della compassione?

 

[1] Dati ed analisi tratti dallo studio di DANZIGER, J. LEVAV & L. AVNAIM-PESSO, dal titolo Extraneous Factors in Judicial Decisions, “Proceedings of the National Academy of Sciences” (2011).

*Picture Designed by Freepik (www.freepik.com)