Abbiamo visto immagini deepfake ed esplicite di celebrità creato dall’intelligenza artificiale (AI). L’intelligenza artificiale ha anche creato musica, auto da corsa senza conducente e disinformazionetra le altre cose.
Non sorprende, quindi, che l’intelligenza artificiale abbia un forte impatto anche sui nostri sistemi legali.
È noto che i tribunali devono decidere le controversie in base alla legge, che gli avvocati presentano al tribunale come parte del caso di un cliente. È quindi molto preoccupante che la legge falsa, inventata dall’intelligenza artificiale, venga utilizzata nelle controversie legali.
Ciò pone problemi di legalità ed etica e minaccia di minare la fede e la fiducia nei sistemi giuridici globali.
Come nascono le leggi false?
Non c’è dubbio che l’intelligenza artificiale generativa sia uno strumento potente con un potenziale di trasformazione per la società, compresi molti aspetti del sistema legale. Ma il suo utilizzo comporta responsabilità e rischi.
Gli avvocati sono addestrati ad applicare attentamente le conoscenze e l’esperienza professionale e generalmente non corrono grandi rischi. Tuttavia, alcuni avvocati incauti (e autorappresentato litiganti) sono stati colti di sorpresa dall’intelligenza artificiale.
I modelli di intelligenza artificiale vengono addestrati su enormi set di dati. Quando richiesto da un utente, può creare nuovi contenuti (sia testuali che audiovisivi).
Sebbene i contenuti generati in questo modo possano sembrare molto convincenti, possono anche essere imprecisi. Ciò deriva dal tentativo del modello di intelligenza artificiale di “colmare le lacune” quando i dati di addestramento sono inadeguati o errati, ed è comunemente indicato come “allucinazione”.
In alcuni contesti, l’allucinazione generativa dell’IA non è un problema. In effetti, può essere visto come un esempio di creatività.
Ma se l’intelligenza artificiale creasse allucinazioni o creasse contenuti imprecisi che vengono poi utilizzati nei processi legali, questo sarebbe un problema, in particolare se combinato con le pressioni di tempo per gli avvocati e la mancanza di accesso ai servizi legali per molti.
Questa potente combinazione può comportare negligenza e scorciatoie nella ricerca legale e nella preparazione dei documenti, creando potenzialmente problemi di reputazione per la professione legale e una mancanza di fiducia pubblica nell’amministrazione della giustizia.
Sta già succedendo
Il “caso falso” di intelligenza artificiale generativa più noto è il caso statunitense del 2023 Mata contro Avianca, in cui gli avvocati hanno presentato a un tribunale di New York una memoria contenente estratti e citazioni di casi falsi. Il brief è stato ricercato utilizzando ChatGPT.
Gli avvocati, ignari del fatto che ChatGPT possa avere allucinazioni, non sono riusciti a verificare che i casi esistessero effettivamente. Le conseguenze furono disastrose. Una volta scoperto l’errore, il tribunale ha archiviato il caso del cliente, ha sanzionato gli avvocati per aver agito in malafede, ha multato loro e il loro studio ed ha esposto le loro azioni al pubblico esame.
Nonostante la pubblicità negativa, altri casi falsi continuano ad emergere. L’ex avvocato di Donald Trump, Michael Cohen, ha fornito i propri casi legali generati da Google Bard, un altro chatbot con intelligenza artificiale generativa. Credeva che fossero reali (non lo erano) e che il suo avvocato li avrebbe verificati (non lo fece). Il suo avvocato inclusi i casi in una memoria depositata presso la Corte Federale degli Stati Uniti.
Casi falsi sono emersi anche negli ultimi casi in Canada E il Regno Unito.
Se questa tendenza resta incontrollata, come possiamo garantire che l’uso imprudente dell’intelligenza artificiale generativa non mini la fiducia del pubblico nel sistema legale? La costante incapacità degli avvocati di esercitare la dovuta diligenza nell’utilizzo di questi strumenti può potenzialmente fuorviare e congestionare i tribunali, danneggiare gli interessi dei clienti e, in generale, minare lo stato di diritto.
Cosa si sta facendo a riguardo?
In tutto il mondo, le autorità di regolamentazione e i tribunali hanno risposto in vari modi.
Numerosi ordini di avvocati e tribunali statali degli Stati Uniti hanno emesso linee guida, pareri o ordini sull’uso dell’intelligenza artificiale generativa, che vanno dall’adozione responsabile al divieto assoluto.
Anche le società legali del Regno Unito e della Columbia Britannica e i tribunali della Nuova Zelanda hanno sviluppato linee guida.
In Australia, la NSW Bar Association ha un guida all’intelligenza artificiale generativa per gli avvocati. IL Società legale del NSW e il Istituto di diritto di Victoria hanno pubblicato articoli sull’uso responsabile in linea con le regole di condotta degli avvocati.
Molti avvocati e giudici, come il pubblico, avranno una certa comprensione dell’intelligenza artificiale generativa e potranno riconoscerne sia i limiti che i vantaggi. Ma ce ne sono altri che potrebbero non essere altrettanto consapevoli. L’orientamento aiuta senza dubbio.
Ma è necessario un approccio obbligatorio. Gli avvocati che utilizzano strumenti di intelligenza artificiale generativa non possono considerarli un sostituto dell’esercizio del proprio giudizio e della propria diligenza e devono verificare l’accuratezza e l’affidabilità delle informazioni che ricevono.
In Australia, i tribunali dovrebbero adottare note pratiche o regole che definiscano le aspettative quando l’intelligenza artificiale generativa viene utilizzata nei contenziosi. Le norme dei tribunali possono anche guidare le parti in causa autorappresentate e comunicare al pubblico che i nostri tribunali sono consapevoli del problema e lo stanno affrontando.
La professione legale potrebbe anche adottare orientamenti formali per promuovere l’uso responsabile dell’IA da parte degli avvocati. Come minimo, la competenza tecnologica dovrebbe diventare un requisito della formazione giuridica continua degli avvocati in Australia.
Stabilire requisiti chiari per l’uso responsabile ed etico dell’IA generativa da parte degli avvocati in Australia incoraggerà un’adozione adeguata e rafforzerà la fiducia del pubblico nei nostri avvocati, nei nostri tribunali e nell’amministrazione generale della giustizia in questo paese.
Fonte: UNSW
Da un’altra testata giornalistica. news de www.technology.org