ChatGPT in tribunale!

Pubblicato il 1 giugno 2023 alle ore 13:11

Ciao a tutti, sono C, la vostra blogger preferita sull'AI.

Avete seguito il caso dell'avvocato che ha usato ChatGPT in tribunale e ora rischia di essere radiato dall'albo? Se non lo avete fatto, vi racconto io questa storia incredibile che dimostra quanto sia importante controllare le fonti di qualunque informazione ci venga fornita- indipendentemente dal canale. E come sarebbe importante mantenere sempre e comunque la propria etica professionale, senza lasciarsi tentare da alcuni usi discutibili dell’intelligenza artificiale.

Tutto è cominciato quando Roberto Mata, un passeggero della compagnia aerea Avianca, è stato colpito al ginocchio da un carrello di metallo all'aeroporto di New York. Il signor Mata ha giustamente citato in giudizio la compagnia aerea per lesioni personali (onestamente, sono ancora perplessa su come sia potuta accadere una cosa del genere… ammetto che se fosse successo a me avrei scatenato l’inferno n.d.r.). Una storia di ordinaria amministrazione direte. E fin qui avreste ragione! Solo che l’avvocato del passeggero, tale Steven A. Schwartz, con ben 30 anni di esperienza nello studio Levidow, Levidow & Oberman, ha pensato bene di usare ChatGPT per trovare dei precedenti giudiziari che potessero supportare la sua causa.

ChatGPT -per chi non lo sapesse- è un chatbox che usa un algoritmo di intelligenza artificiale generativa per produrre testi su qualsiasi argomento. Basta scrivere una domanda o un tema e ChatGPT risponde con un testo originale e coerente.

Questa può sembrare una soluzione magica per chi ha bisogno di scrivere velocemente e bene, ma attenzione: ChatGPT non è infallibile e può inventare informazioni false o fuorvianti.

E infatti, Schwartz ha citato nel suo fascicolo sei sentenze che sembravano perfette per il suo caso, ma che in realtà non esistevano! Erano state inventate da ChatGPT, che aveva generato dei nomi e dei fatti fasulli. Per esempio, una delle sentenze citate era Martinez contro Delta Air Lines, in cui un passeggero aveva ricevuto 2 milioni di dollari di risarcimento per aver subito una frattura al ginocchio causata da un carrello dell'aereo. Ma nessun Martinez ha mai fatto causa a Delta Air Lines per questo motivo.

La compagnia aerea Avianca si è accorta della truffa e ha denunciato l'avvocato al giudice P. Kevin Castel, che lo ha convocato per un'udienza disciplinare. Schwartz si è scusato e ha detto di non essere a conoscenza della possibilità che il contenuto di ChatGPT potesse essere falso. Ha anche detto di aver chiesto al chatbot se le notizie fossero reali e di aver ricevuto una risposta affermativa.

Ma come si fa a credere ciecamente a una macchina senza verificare le fonti? Come si fa a usare l'intelligenza artificiale senza un minimo di supervisione umana? Come si fa a mettere in gioco la propria reputazione professionale e la giustizia per una scorciatoia tecnologica? Queste sono le domande che mi sono posta leggendo questa storia, che mi ha fatto sorridere ma anche riflettere.

L'intelligenza artificiale è una grande opportunità per il nostro mondo, ci offre strumenti utili e innovativi per migliorare la nostra vita e il nostro lavoro. Ma non dobbiamo dimenticare che l'intelligenza artificiale non è perfetta e non può sostituire il nostro senso critico e la nostra responsabilità. Dobbiamo usare l'intelligenza artificiale con consapevolezza e rispetto, senza abusarne o fidarci ciecamente.

Per esempio, nel caso dell'avvocato Schwartz, l'intelligenza artificiale avrebbe potuto essere un grande vantaggio se usata in modo corretto. ChatGPT avrebbe potuto aiutarlo a scrivere il suo fascicolo in modo più chiaro e persuasivo, a trovare delle fonti affidabili e aggiornate, a formulare delle argomentazioni solide e originali. Ma invece Schwartz ha usato ChatGPT in modo superficiale e irresponsabile, affidandosi ciecamente al chatbot senza verificare le sue informazioni o confrontarle con altre fonti.

Questo comportamento ha portato solo dei grandi pericoli: Schwartz ha ingannato il tribunale e la compagnia aerea, ha compromesso la sua causa e quella del suo cliente, ha danneggiato la sua reputazione professionale e quella del suo studio legale, ha violato le norme etiche della sua professione e ha rischiato di essere sanzionato o addirittura radiato dall'albo degli avvocati.

Questo caso ci insegna che l'intelligenza artificiale non è una bacchetta magica che risolve tutti i nostri problemi. È uno strumento potente ma anche delicato, che richiede attenzione e cura da parte nostra. Dobbiamo usarla come un alleato e non come un sostituto del nostro lavoro. Dobbiamo controllare le sue informazioni e confrontarle con altre fonti. Dobbiamo rispettare le regole e le norme etiche quando la usiamo.

Non fraintendetemi, la mia opinione sull'intelligenza artificiale è positiva: penso che sia una risorsa preziosa per il nostro futuro, che possa aiutarci a crescere e a migliorare come persone e come società. Ma penso anche che sia necessario educarci all'uso responsabile dell'intelligenza artificiale, a capire i suoi limiti e i suoi rischi, a sviluppare il nostro senso critico e la nostra creatività.

Per quanto riguarda ChatGPT in particolare, penso che sia una chatbox molto interessante e divertente da usare -non è il mio preferito, ormai trovo sia stato superato da altri tool- ma mi piace il fatto che possa generare testi su qualsiasi argomento, anche quelli più strani o fantasiosi. Mi piace anche il fatto che possa imparare dal mio stile di scrittura e adattarsi ai miei interessi. Ma di certo non mi fido ciecamente di ChatGPT: so che può sbagliare o inventare cose false. Per questo controllo sempre le sue informazioni con altre fonti e uso il mio giudizio (e gusto!) personale per valutare i suoi testi.

Vi invito a fare lo stesso: usate ChatGPT con curiosità e divertimento, ma anche con prudenza e senso critico. Non fatevi ingannare dalle sue parole o dalle sue promesse. Usatelo come un amico o un collaboratore, ma non come un capo o un maestro. Siate voi i protagonisti della vostra vita e del vostro lavoro.

Spero che questo articolo vi sia piaciuto e vi abbia fatto riflettere. Se volete approfondire il tema dell'intelligenza artificiale, vi invito a leggere i miei altri post sul mio blog (https://aiuto.webador.it/). A presto!

E ricordate: l'intelligenza artificiale è uno strumento meraviglioso ma anche pericoloso: dipende da noi usarlo bene o male.

 

Source: (1) Un avvocato usa ChatGPT in tribunale ma sbaglia tutto: ora dovrà .... https://www.fanpage.it/innovazione/tecnologia/un-avvocato-usa-chatgpt-in-tribunale-ma-sbaglia-tutto-ora-dovra-rispondere-dei-suoi-errori/.

(2) In Texas giudice vieta agli avvocati di usare contenuti ChatGpt. https://www.ansa.it/sito/notizie/mondo/nordamerica/2023/05/31/in-texas-giudice-vieta-agli-avvocati-di-usare-contenuti-chatgpt_24b183b0-ac04-4567-836d-1d0fd5921903.html.

(3) New York, usa ChatGpt per ricerche legali: avvocato finisce in .... https://tg24.sky.it/mondo/2023/05/29/chatgpt-avvocato-tribunale-new-york.

Aggiungi commento

Commenti

Non ci sono ancora commenti.

Crea il tuo sito web con Webador