ChatGPT compare per la prima volta nel testo di una sentenza della Cassazione. È la prova che l’IA è ormai diffusa in tutte le professioni.
Interpelliamo l’intelligenza artificiale sempre più spesso quasi come un coltellino svizzero multiuso. Domandando a Bard (l’IA di Google) quali sono le domande più comuni che gli vengono rivolte è scaturito che si parla di meteo, itinerari, ricette, e per i più filosofici, il senso della vita. Anche nelle varie categorie professionali l’IA sta guadagnando posto di fianco a operatori del marketing, scrittori, designers, programmatori e avvocati.
Sì, il protagonista di questo episodio è proprio un avvocato che ha deciso interpellare l’IA per preparare un ricorso alla Corte di Cassazione. Ma partiamo dal principio.
La storia inizia con un caso di abusi edilizi che coinvolge la signora FP e i suoi due figli, che hanno edificato in una zona con vincoli edilizi. La Corte di Appello di Roma ha rigettato la richiesta di revisione di una precedente sentenza della Corte di Napoli del 2010. I ricorsi si sono protratti fino ai nostri giorni quando entra in scena la nostra IA.
L’avvocato in questione, che lavora per conto della signora ricorrente, ha pensato di utilizzare nel suo ultimo ricorso le informazioni avvallate da Chat-GPT a difesa della legittimità delle opere edilizie effettuate dai suoi assistiti.
In questo caso l’IA non è stato di aiuto alla parte ricorrente, la quale si è vista rigettare il ricorso, ma l’episodio va comunque menzionato, perché per la prima volta nella legislazione italiana Chat-GPT fa la sua comparsa in una sentenza italiana. Come riportato nella sentenza della Cassazione Penale, Sez.III, sent. n. 14631/2024 si legge testualmente “…anche l’intelligenza artificiale ChatGPT aveva confermato che l’area in questione non era soggetta a vincoli”, mentre in realtà i vincoli c’erano.
Questo episodio di fatto evidenzia due importanti realtà: la prima è che l’intelligenza artificiale è entrata nel nostro quotidiano lavorativo per sbrigare quei lavori che a volte ci occupano molto (a volte troppo) tempo; la seconda è che sottolinea la necessità di cautela nell’attribuire peso eccessivo alle conclusioni fornite dai sistemi di intelligenza artificiale, come appunto dimostra l’episodio descritto prima.
I sistemi di intelligenza artificiale per quanto vengono addestrati continuamente, non sono scevri da allucinazioni o bias negli algoritmi, pertanto occorre particolare attenzione e approfondire gli argomenti con altre sorgenti, prima di prendere per valido un risultato che può avere conseguenze importanti.
Se guardiamo oltreoceano anche negli USA è successo qualcosa di simile all’avvocato nostrano. Anche in questi casi ricorrere a Chat-GPT non è risultata la mossa vincente, evidenziando pertanto le lacune che in questo settore manifesta, indipendentemente dalla nazione in cui opera.
OpenAI interrogata sulla vicenda statunitense, si è difesa con l’argomentazione che l’utente è avvisato della non affidabilità e del valore “probabilistico” dei risultati generati dalla chatbot e della necessita di controlli da ulteriori fonti, come riportato nelle condizioni generali di utilizzo.
La menzione di Chat-GPT pone un importante sfida per l’integrazione dell’IA nel sistema legale. Questo strumento può essere un valido alleato per migliorare l’efficienza e l’accessibilità alla giustizia, ma richiede grande conoscenza dello strumento oltre alla premessa di un quadro normativo dedicato.