Articolo di Fiorenzo Festi, Professore ordinario di diritto privato.
1.- Prospettiva tecnologica.
Da tempo, i giuristi si stanno interrogando circa la possibilità di affidare la decisione giudiziaria a una Intelligenza Artificiale.
Dal punto di vista tecnico, la creazione di un’I.A. che interpreti e applichi regole giuridiche a determinati fatti appare oggi un’ipotesi concretamente realizzabile. Lo dimostra lo sviluppo repentino di sistemi di intelligenza artificiale ad apprendimento automatico come quello posto a base di ChatGPT.
Già la quarta versione di ChatGPT, resa da poche settimane accessibile al pubblico, appare capace di trarre conclusioni sulla base di determinate poste, ma, secondo gli annunci, la versione numero cinque dovrebbe somigliare in tutto all’intelligenza umana, con in più la capacità di immagazzinare e di elaborare una quantità enorme di dati a una velocità inimmaginabile per l’uomo.
2.- Vantaggi del giudice-macchina.
L’attribuzione a una I.A. del compito di giudicare comporterebbe una serie di vantaggi. Estrema velocità della sentenza. Eliminazione degli errori dovuti a distrazione. Eliminazione dei casi di corruzione del giudice (1). Prevedibilità e certezza della decisione.
Di converso, tale attribuzione incontrerebbe molti ostacoli e tanti svantaggi.
3.- La soluzione dei contrasti giurisprudenziali.
I più ipotizzano di addestrare l’I.A. fornendole tutte le sentenze. Pensando al diritto civile, si tratterebbe di riversare nella memoria della macchina tutte le decisioni pronunciate dall’entrata in vigore del codice civile sino a oggi. Così facendo, qualcuno ritiene che l’I.A. possa fornire decisioni in perfetta aderenza allo spirito complessivo della giurisprudenza.
L’affermazione risulta, in gran parte, semplicistica.
Per i casi decisi sempre nello stesso modo, l’idea può essere corretta, ma non lo può essere, all’evidenza, per le questioni che la giurisprudenza ha risolto in modo diverso nel corso del tempo.
Per risolvere quest’ultimo problema, si potrebbe pensare di istruire la macchina a dare prevalenza alle sentenze della Corte di Cassazione, però anche fra queste si rinvengono orientamenti difformi.
Per sciogliere i contrasti interni alla Cassazione, si dovrebbe fornire all’I.A. l’istruzione di privilegiare la soluzione scelta dalla maggioranza delle sentenze o la soluzione offerta dalle decisioni più recenti o, ancor meglio, un criterio bilanciato tra i due.
Naturalmente, il bilanciamento richiede anch’esso una scelta da parte del programmatore e una scelta non agevole. Ad esempio, se vi sono 10 sentenze in un senso e 2 in senso diverso, ma queste ultime sono le meno risalenti, occorre dare prevalenza al criterio di maggioranza o al criterio della decisione più recente?
4.- La soluzione dei casi nuovi.
Ipotizzando di accordarsi su un criterio per effettuare il suddetto bilanciamento, l’I.A. risulterebbe addestrata a pronunciarsi su casi già risolti.
Per i casi nuovi, non decisi da alcun precedente, si potrebbe chiedere alla I.A., programmata con il bilanciamento di cui sopra, di emettere una sentenza improntata alla “filosofia” complessiva della nostra giurisprudenza.
Tuttavia, l’estratto bilanciato delle sentenze pronunciate sino a oggi non può dare risultati coerenti.
È constatazione ovvia per la teoria generale del diritto come ogni sentenza che non si limiti a ripercorrere pedissequamente una precedente (2) costituisca il frutto di un’attività creatrice, più o meno intensa (3), da parte del giudice. In questa attività di interpretazione e di applicazione della legge, il giudice è influenzato, e, anzi, necessariamente guidato, da una serie di fattori: la sua esperienza personale, le sue convinzioni politiche, economiche, sociali, filosofiche, religiose, nonché, soprattutto, dalla sua formazione giuridica, la quale a sua volta si fonda sulla lettura di sentenze e di studi di autori a loro volta influenzati dagli stessi fattori. Non è nemmen detto che vi sia coerenza tra le opinioni personali politico-economico-sociali del giudice e l’ispirazione della dottrina o della giurisprudenza da lui predilette, in quanto la scelta degli studi che un giudice compie durante la sua vita dipende frequentemente da ragioni diverse rispetto alla sua ideologia (il tipo di università, i professori, le scuole postuniversitarie, gli incontri professionali, l’ammirazione scientifica etc.).
Dando quindi in pasto all’I.A. tutte le sentenze pronunciate sino a oggi, questa si trova a possedere un panorama interpretativo-applicativo non uniforme.
Ad esempio, limitandoci al profilo politico-economico, è evidente che, in determinati settori della giurisprudenza, può dominare un’impostazione di tipo economico-liberale, mentre, in altri, un indirizzo socio-assistenziale.
E questa è una constatazione ancora grossolana, tanti sono i filoni e i sotto filoni ispirati a diverse ideologie, mischiate in vario modo a orientamenti e dogmatismi giuridici che, dimenticati magari i presupposti storici, economici e sociali, da cui hanno avuto origine, si sono imposti per la particolare autorevolezza di determinati giudici o di certa dottrina.
In presenza di tutte queste varianti, l’ipotesi più semplice è che, di fronte a un caso nuovo, l’I.A. individui un collegamento con un caso già deciso. A meno di non affidarsi a collegamenti meramente linguistici, che l’attuale versione (n. 4) di ChatGPT appare già in grado di attuare (4), ma che porterebbero a risultati casuali, il criterio di collegamento dovrebbe necessariamente concretarsi nell’attribuzione di prevalenza a un particolare orientamento e, di conseguenza, nella scelta di una determinata impostazione giuridica, politica, economica, sociale etc. a discapito di tutte le altre.
5.- Il Distinguishing.
La stessa idea del caso “nuovo” appare, tuttavia, una semplificazione.
In realtà, secondo la logica aristotelica, ogni caso è identico solo a se stesso, mentre, in ambito giurisprudenziale, l’etichettatura di una controversia come “uguale alla precedente” o come “nuova” presuppone l’individuazione dei fatti giuridicamente rilevanti.
È l’arte del distinguishing dei sistemi di Common Law, la quale risulta anch’essa condizionata dall’ideologia e dall’imprinting giuridico del giudicante.
Pure per indirizzare e controllare la macchina nel distinguishing, quindi, occorrerebbe istruirla a seguire un determinato indirizzo politico-economico-sociale-giuridico.
6.- L’impostazione della macchina.
In sintesi, per consentire a una I.A. di svolgere la funzione di giudice civile e la capacità di risolvere tutti i casi che si possono presentare, occorrerebbe conferirle una precisa impostazione ideologica, sotto tutti i profili, politico, economico, sociale, tecnico-giuridico etc.
Invero, la soluzione di controversie in cui non vi sia un precedente indirizzo univoco può essere differente o addirittura opposta a seconda dell’impostazione ideologica adottata e, se non si impartisse all’I.A. l’istruzione di privilegiarne una, questa dovrebbe necessariamente sceglierne una autonomamente, secondo un suo insondabile criterio, pena l’indecidibilità.
Al riguardo, si potrebbe sostenere che non vi sia nulla da obiettare: così come al giudice-uomo si riconosce il potere di usare la sua personale mentalità nella ricostruzione del fatto, nell’interpretazione e nell’applicazione della legge, parimenti lo stesso potere potrebbe essere lasciato al giudice-macchina.
La simmetria dovrebbe essere senz’altro respinta, perché un determinato livello di discrezionalità e, quindi, di soggettività e di imprevedibilità nelle decisioni umane è inevitabile, mentre non lo è per le conclusioni di un’intelligenza artificiale.
Tale affermazione non va intesa sotto il profilo tecnologico, nel senso che, con essa, non si vuole negare che un’I.A. ad apprendimento automatico possa arrivare a conclusioni imprevedibili da parte dei programmatori, magari anche sulla base di percorsi e collegamenti incomprensibili. Si vuole solo intendere che, quando a decidere è una persona, poiché ogni persona ha le sue idee, formatesi in modo non ricostruibile, nel corso della sua vita, è impossibile sia impedire che la persona applichi tali idee nel giudizio giuridico, sia prevedere in modo esatto quale sarà la decisione resa applicando le idee medesime. Ma il sistema del processo, vale a dire l’affidamento della soluzione della lite a una persona, terza e imparziale, ripetuto più volte, è l’unico metodo che è stato trovato ne cives ad arma ruant, sicché la soggettività e l’imprevedibilità appaiono, all’attualità in cui il processo è affidato a persone, inevitabili.
Ma, se si intende affidare lo stesso processo a una macchina, l’arbitrarietà e l’imprevedibilità non rappresentato caratteri inevitabili. All’opposto: la collettività umana potrà accettare di sottoporsi al giudizio di una macchina solo se rimarrà in grado di prevedere e seguire i suoi ragionamenti.
7.- La motivazione della sentenza resa dall’I.A.
A quest’ultimo riguardo, si deve rimarcare la necessità che pure le sentenze emesse dall’I.A. siano fondate su una motivazione logica e consequenziale. Nella situazione attuale, di processo affidato a persone, la funzione di mantenimento della pace sociale della sentenza è raggiunta oltre che attraverso la nomina a giudici di soggetti indipendenti e competenti, oltre che mediante la ripetizione del giudizio (i diversi gradi), anche attraverso il corredo della sentenza con una spiegazione in cui il giudice fa il possibile per convincere le parti in causa che la decisione è “giusta”.
Quest’ultima esigenza si pone anche qualora il giudizio venga affidato a una macchina: nessuno accetterebbe di buon grado a scatola chiusa la decisione di una I.A., nemmeno se gli scienziati dovessero assicurare che è molto più intelligente dell’uomo.
Quindi, la sentenza resa dal giudice-macchina dovrà essere corredata da una spiegazione, comprensibile dall’uomo, contenente tutti i passaggi logici.
Ciò rappresenta un limite insormontabile e, nello stesso tempo, una garanzia per l’uomo di non poter essere prevaricato e annichilito dall’I.A. in questo ambito con decisioni incomprensibili.
8.- I.A. e stravolgimento dell’attuale assetto sociale.
Negli scorsi giorni, Elon Musk e un altro migliaio di ricercatori e managers hanno chiesto, con una lettera aperta, una moratoria nell’addestramento di ChatGPT, per il timore che lo sviluppo di questo tipo di I.A. possa stravolgere l’assetto delle nostre società.
Il timore non pare infondato.
Non si tratta tanto del fatto che la macchina sarà in grado di scalzare l’uomo anche dai lavori intellettuali. La sostituzione dell’uomo con la macchina ha caratterizzato tutte le rivoluzioni industriali avvenute nel corso dei secoli e, con il tempo, la società si è sempre adattata. D’altronde, anche l’idea di fermare il progresso tecnologico appare impercorribile, non solo per ragioni legate alla sete di conoscenza dell’uomo, quanto perché, per funzionare, l’idea dovrebbe essere seguita da tutte le nazioni del mondo. Infatti, se anche a una sola impresa fosse consentito di utilizzare una I.A., questa acquisterebbe un vantaggio concorrenziale, in termini di risparmio di costi nonché di maggiori velocità e profondità delle sue scelte gestionali, tale da costringere tutte le altre imprese a seguire la stessa via.
Del resto, ciò comporterebbe anche vantaggi: se le macchine dovessero arrivare a svolgere quasi tutti i compiti, fisici e intellettuali, dell’uomo, quest’ultimo avrà maggior tempo da dedicare agli affetti, alle relazioni e al divertimento.
I veri pericoli, del tutto nuovi per l’umanità, sono altri. Il rischio che, affidando la gestione di un’attività pericolosa solo all’I.A. quest’ultima possa, magari sulla base di ragionamenti troppo complessi per essere compresi dall’uomo, pervenire al compimento di atti nefasti. Il rischio dell’inutilità dell’apprendimento umano: a quale scopo insegnare all’uomo scienze, arti o mestieri, se poi il tutto viene affidato a macchine. Il rischio non solo che gran parte delle attività vengano compiute dalla macchina, anziché dall’uomo, ma che gli stessi bisogni che giustificano tali attività scompaiano. Ad esempio, se le liti vengono risolte da una macchina in modo certo e prevedibile con un click, che bisogno ci sarebbe degli avvocati? Se documenti contabili e fiscali sono predisposti integralmente da un’I.A., a cosa servirebbero commercialisti, fiscalisti, consulenti del lavoro? A cosa gli impiegati dello Stato preposti ai controlli fiscali? Se l’intelligenza artificiale è in grado di scrivere romanzi originali e accattivanti o splendide poesie, quale persona leggerà ancora un componimento letterario, sapendo che potrebbe non rappresentare il pensiero intimo o la storia di vita di un suo simile, ma l’artificiale esposizione, fine a se stessa, di un’entità sintetica?
Insomma, l’Intelligenza Artificiale potrebbe stravolgere il nostro assetto sociale, rendendo inutile l’esistenza della maggior parte delle persone, se non in veste di consumatori e di fruitori dei servizi erogati dalle macchine. Una sorte di ritorno a un’età oscura, in cui conterà l’opera di poche persone elette, quelle in grado di influire sulla programmazione e l’apprendimento delle macchine o quelle talmente geniali e originali da formulare pensieri e ragionamenti non imitabili dall’I.A. (5).
Così come, nel passato, a causa della generale analfabetizzazione, la cultura e il governo erano nelle mani di pochi eletti, la stessa cosa potrebbe verificarsi, nel futuro, a causa della generale informatizzazione.
9.- La programmazione del giudice-macchina e democrazia.
Tornando all’ipotesi del giudice-macchina, il rischio che possa prendere il sopravvento e decidere in modo incontrollabile e incomprensibile appare, come detto, scongiurato in partenza. Non nel senso che l’I.A. non possa arrivare a decisioni giuridiche sulla base di percorsi e collegamenti imprevedibili e o incomprensibili, ma per il fatto che, di certo, la comunità umana potrà deliberare di affidare la decisione giudiziaria a una macchina solo sapendo come farà a raggiungerla e potendo anche controllarne a posteriori risultato e percorso argomentativo.
Gli ostacoli al giudice-macchina sono altri e sono di tipo politico.
Come si è visto, per consentire all’I.A. di decidere, occorre munirla di una precisa ideologia. Come si è detto, in determinati settori, un’ideologia di tipo liberale o di tipo socialista condurrebbero a risultati diversi. È evidente altresì che, dovendo la scelta ideologica condizionare tutte le decisioni future, essa dovrebbe essere assunta da giuristi democraticamente eletti.
Invero, la decisione del giudice-uomo è vincolante solo per una controversia e solo per le parti in causa e può essere diversa per un medesimo caso tra altri soggetti, mentre la programmazione del giudice-macchina implica la scelta del modo di risolvere tutte le controversie a venire.
Ebbene, non pare possibile attribuire agli eletti di oggi il potere di condizionare politicamente la vita dei cittadini per tutti i giorni a venire. Né pare possibile, a ogni tornata elettorale, attribuire ai nuovi eletti il potere di modificare l’impostazione dell’I.A., cambiando in blocco gran parte delle decisioni future.
Né, a somiglianza di ciò che avviene per i giudici-persona, si potrebbe pensare di creare più giudici-macchina con diverse idee politico-economico-sociali-giuridiche. Il pluralismo ideologico rappresenta un dato estremamente positivo nelle società democratiche, ma a livello giurisprudenziale contribuisce all’incertezza e all’imprevedibilità. Il pluralismo deve essere necessariamente accettato se il giudice è una persona, ma non costituisce un dato essenziale se il giudice è un’I.A.
10.- Rilevante modifica del processo.
La programmazione dell’I.A., in modo da condurla a decisioni prevedibili e comprensibili, comporterebbe l’inutilità dei tre gradi di giudizio e dello stesso processo, come è oggi inteso.
Una volta istruita, l’I.A. dovrebbe essere ovviamente resa accessibile a tutti. Quindi, chiunque, prima di addentrarsi in una contesa giudiziaria, avrebbe la possibilità di interpellare la macchina e di scoprire se ha ragione o torto. Certo l’interpellante potrebbe non avere a disposizione i documenti probatori di controparte, per cui residuerebbe un margine di non deciso.
A questo punto, il processo basato su prove documentali si ridurrebbe a una iniziale presentazione di pretese e documenti e poi la macchina risolverebbe il tutto in pochi secondi con un click.
Pure i gradi successivi del giudizio risulterebbero inutili: se anche i successivi gradi sono decisi da un’I.A, programmata nello stesso modo, la soluzione rimane identica.
11.- Conclusioni.
Si possono quindi trarre le seguenti conclusioni.
a) Il completo affidamento della decisione giudiziaria a un’Intelligenza Artificiale ad apprendimento automatico e incontrollato, pur possibile dal punto di vista tecnico, non verrà mai presumibilmente accettato, perché non in grado di soddisfare l’esigenza di giustizia dei consociati, che chiedono, invece, una decisione motivata in modo comprensibile.
b) L’affidamento a un’I.A. che pervenga, invece, alla decisione sulla base di un percorso argomentativo verificabile e prevedibile richiede l’esplicitazione di un’ideologia, politica, economica, sociale, giuridica, e non si può lasciare la macchina libera di scegliere ora un’ideologia, ora un’altra, sulla base di percorsi insondabili.
c) È, pertanto, giocoforza improntare la macchina a una precisa ideologia, ma appare assai improbabile che la nostra società possa scegliere un’ideologia una volta per tutte.
d) Pure impraticabile risulta l’idea di mutare tale impronta ciclicamente, a ogni tornata elettorale.
Tirando le fila, quindi, l’unico ruolo che si potrà realisticamente attribuire in futuro a una macchina nell’ambito della decisione giudiziaria è quello di supporto al giudice-uomo, il quale continuerà ancora, inevitabilmente, a condizionare la sua decisione con le sue personali convinzioni.
La macchina consentirà al giudice-persona di richiamare in un attimo le norme di legge del settore, potrà sintetizzare in un baleno i precedenti giudiziari, ma i passaggi decisionali rimarranno nella discrezionalità della persona.
Fiorenzo Festi
Note
1La corruzione potrebbe intervenire a livello di addestramento e programmazione dell’I.A., ma risulta più ardua e inoltre impatterebbe non solo su un singolo caso, ma su tutti i casi a venire.
2Ci si può domandare come debbano essere “conteggiate” le sentenze ripetute da parte della I.A.: devono essere considerate come un’unica decisione oppure devono “pesare” di più rispetto ai precedenti isolati?
3È noto come l’attività creatrice del giudice sia più ampia quanto più la fattispecie normativa sia formulata in termini generali e vaghi. Ma anche quando la norma sia espressa con termini semanticamente ristretti una certa quota di attività creatrice è presente e comunque vi è certamente creazione quando il giudice la applichi analogicamente.
4Pare che l’attuale versione dell’I.A. posta a base di ChatGPT ragioni seguendo l’accostamento più frequente delle parole, contenuto nei miliardi di documenti riversati nella sua memoria.
5Ammesso e non concesso che non sia possibile programmare una I.A. alla stregua del cervello di un uomo geniale.