Le regole del digitale stanno cambiando.
O sei visibile o sei fuori. Noi ti aiutiamo a raggiungere i clienti giusti — quando ti stanno cercando.
Contattaci ora →
Tra sanzioni e sentenze inventate l’affidamento cieco all’IA da parte degli avvocati sta minando la credibilità del sistema giudiziario, soprattutto tra i professionisti che lavorano da soli o in piccoli studi.
L'intelligenza artificiale sta generando un'ondata di 'allucinazioni' nei tribunali, con centinaia di sentenze e leggi inventate. Avvocati, spesso di piccoli studi, subiscono multe e danni alla reputazione. Questo fenomeno mina la fiducia nel sistema giudiziario, ponendo seri interrogativi sulla competenza professionale e l'affidabilità della giustizia nell'era digitale.
Una valanga di sentenze fantasma
Non stiamo parlando di qualche caso sporadico, ma di una vera e propria epidemia.
Da metà 2023 a oggi, come descritto dal New York Times, sono emersi oltre 300 casi documentati di memorie legali infestate da “allucinazioni” dell’IA, ovvero citazioni di leggi e sentenze completamente inventate. E il ritmo sta accelerando in modo preoccupante: solo nei primi otto mesi del 2025, ne sono spuntati fuori almeno 200.
I giudici, dal canto loro, hanno smesso di essere comprensivi e hanno iniziato a presentare il conto.
In California, un tribunale ha emesso una multa storica dopo aver scoperto che 21 citazioni su 23 in un documento erano pura finzione. In un altro caso, uno studio legale si è visto recapitare una sanzione da oltre 30.000 dollari per aver basato la sua ricerca su dati fasulli prodotti da un’IA.
La situazione è talmente fuori controllo che ormai non passa settimana senza che un avvocato finisca nei guai per essersi fidato ciecamente della macchina.
Ma chi sono questi professionisti?
Chi sono i professionisti che cadono nella trappola?
Se pensi che a sbagliare siano i grandi studi legali con risorse illimitate, ti sbagli di grosso.
La realtà è molto più amara.
Circa il 90% dei casi riguarda avvocati che lavorano da soli o in piccoli studi, secondo una ricerca che ha passato al setaccio 114 cause legali negli Stati Uniti. Professionisti che, forse per mancanza di tempo o di budget per costosi database legali, si affidano a soluzioni apparentemente veloci ed economiche.
E qual è lo strumento più gettonato?
Diciamocelo, non c’è da stupirsi: la metà delle volte, dietro le quinte, c’è una qualche versione di ChatGPT. Un software potentissimo, certo, ma che non è stato progettato per la ricerca legale e che, come sappiamo, ha una certa tendenza a inventare le cose pur di darti una risposta.
Questo solleva una domanda scomoda: mentre i piccoli studi legali finiscono nei guai, pagando multe e mettendo a rischio la loro reputazione, chi sta davvero guadagnando da questa diffusione incontrollata di strumenti tanto potenti quanto inaffidabili?
Molto più di un semplice errore: la credibilità a rischio
La risposta è fin troppo ovvia.
Il problema, vedi, non è solo la multa salata o la figuraccia in aula. Qui c’è in gioco la fiducia stessa nel sistema giudiziario. I giudici, da parte loro, non usano mezzi termini, parlando di un fenomeno che mina la fiducia del pubblico in un sistema già percepito con scetticismo. Quando un avvocato deposita un atto pieno di bugie, non danneggia solo se stesso e il suo cliente, ma getta un’ombra sull’intera categoria.
Stiamo assistendo a una silenziosa erosione della competenza. La capacità di fare ricerca, di verificare le fonti, di costruire un’argomentazione solida: sono queste le abilità fondamentali di un buon avvocato.
Se deleghiamo tutto a un algoritmo che può mentire senza battere ciglio, cosa resta del pensiero critico?
La tecnologia doveva essere un aiuto, uno strumento per migliorare il lavoro.
Ma la domanda che resta sospesa nell’aria è pesante: stiamo assistendo a un potenziamento delle capacità umane o a una lenta e inesorabile sostituzione del ragionamento?

L’IA, una bacchetta magica? No, un bisturi. Taglia, ma solo se maneggiato con mano ferma. Affidarsi ciecamente è come navigare senza bussola. Quando la tecnologia diventa padrona, la nave affonda. Chi paga il conto della disattenzione?
Affidamento cieco all’IA? Una scorciatoia che scotta. La tecnologia è uno strumento, non un sostituto del giudizio.