Questa categoria sull’orlo della crisi, non li chiama più nessuno | Ora ChatGPT gli ruba il lavoro

Avvocato, consulenza

Avvocato della difesa (canva) adginforma.it

Quando l’intelligenza artificiale prende il posto dei professioni ci si deve preoccupare, i rischi sono molti bisogna fare attenzione

Un episodio increscioso ha messo in discussione l’utilizzo dell’intelligenza artificiale in alcuni settori. Ma davvero le nuove tecnologie possono sostituire i professionisti durante nello svolgimento delle loro mansioni? Per comprendere bene la questione analizziamo un caso in cui è stati fatto un utilizzo improprio dell’intelligenza artificiale in campi specifici.

Il caso ha sollevato una questione di responsabilità: è lecito basare lo svolgimento della professione su risultati che ufficialmente non sono ancora verificati? Secondo molti la mancanza di controllo costituisce una colpa grave per chi si avvale di queste tecnologie , anche se non influisce sull’esito finale.

Il ricorso a fonti fasulle ha comunque minato la credibilità del professionista coinvolto.

Quello che si sottolinea è l’inadeguatezza del comportamento tenuto dal professionista, censurando la superficialità nell’uso dell’intelligenza artificiale. Anche se il danno non è stato dimostrato, il rischio che simili errori possano compromettere futuri procedimenti è concreto.

Cosa è successo: il caso discusso in Tribunale

Il Tribunale delle Imprese di Firenze ha recentemente affrontato un caso che potrebbe diventare emblematico nel dibattito sull’uso dell’intelligenza artificiale in ambito legale. Il procedimento (reclamo n. 11053/2024 R.G.) riguarda un difensore che ha costruito la propria linea difensiva su sentenze inesistenti fornite da un sistema di AI.

Le decisioni giurisprudenziali, apparentemente emesse dalla Corte di Cassazione, si sono rivelate frutto di “allucinazioni” dell’algoritmo, ovvero creazioni plausibili ma del tutto inventate. A confermare l’accaduto è stato lo stesso legale, il quale ha dichiarato che la sua collaboratrice aveva utilizzato ChatGPT per redigere la memoria difensiva, fidandosi delle sentenze fornite. Purtroppo, nessuna di esse risultava archiviata nei database ufficiali, né compatibile con l’oggetto del contenzioso.

Giudice in Tribunale
Giudice in Tribunale (Canva) Adginforma.it

I limiti dell’intelligenza artificiale “creativa”

Questo episodio conferma che l’AI, se non supervisionata, può diventare pericolosa. Le cosiddette “allucinazioni” sono una caratteristica nota: i modelli linguistici, pur generando testi coerenti, possono inventare fatti, norme e riferimenti con apparente naturalezza. In contesti sensibili come il diritto, la salute o la sicurezza, queste deviazioni non sono semplici errori: sono vere e proprie mine vaganti.

Il caso di Firenze non è solo una svista tecnica, ma un campanello d’allarme. Dimostra che l’intelligenza artificiale può essere un supporto utile, ma mai un sostituto del pensiero critico e del controllo umano. In ambiti ad alta responsabilità come quello legale, l’affidabilità delle fonti non è negoziabile.