{"id":5854,"date":"2024-02-04T15:35:44","date_gmt":"2024-02-04T15:35:44","guid":{"rendered":"https:\/\/www.consultingpb.com\/?p=5854"},"modified":"2024-02-06T20:29:48","modified_gmt":"2024-02-06T20:29:48","slug":"ia-e-avvocati-un-rapporto-difficile","status":"publish","type":"post","link":"https:\/\/www.consultingpb.com\/en\/blog\/diritto-rovescio\/ia-e-avvocati-un-rapporto-difficile\/","title":{"rendered":"IA e  avvocati: un rapporto difficile ?"},"content":{"rendered":"\n<h3 class=\"wp-block-heading\" id=\"h-premessa-il-ruolo-dell-intelligenza-artificiale-generativa\">Premessa: Il ruolo dell\u2019intelligenza artificiale generativa<\/h3>\n\n\n\n<p>Il principale esempio \u00e8 quello correlato all\u2019impiego di strumenti di intelligenza artificiale (\u201cIA\u201d) generativa. <\/p>\n\n\n\n<p>La generazione di contenuti attraverso l&#8217;intelligenza artificiale \u00e8 un tema caldo nel panorama tecnologico attuale.<\/p>\n\n\n\n<p> I modelli linguistici di grandi dimensioni, noti come Large Language Models (LLM), sono al centro di questa rivoluzione, in grado di produrre testi, immagini, video e altri tipi di contenuti in risposta a specifiche richieste. <\/p>\n\n\n\n<p>Questi modelli sono basati su algoritmi di machine learning addestrati su vasti corpus di testi per generare risposte contestualmente rilevanti.<\/p>\n\n\n\n<p>Il potenziale dei Large Language Models \u00e8 vasto e va dalla scrittura creativa alla produzione di contenuti editoriali. <\/p>\n\n\n\n<p>Tuttavia questi sistemi non sono esenti da rischi. La capacit\u00e0 di un LLM di generare contenuti coerenti e persuasivi porta con s\u00e9 la questione dell&#8217;etica e della veridicit\u00e0 delle informazioni prodotte, soprattutto se utilizzati senza un adeguato intervento umano per correggere eventuali errori o distorsioni.<\/p>\n\n\n\n<p>La tecnologia degli LLM apre nuove possibilit\u00e0 non solo per la scrittura creativa ma anche per la generazione di contenuti su varie piattaforme, trasformando il modo in cui le informazioni vengono create e condivise.<\/p>\n\n\n\n<p>L&#8217;utilizzo di strumenti di intelligenza artificiale come ChatGPT nel campo legale ha sollevato questioni significative riguardo l&#8217;affidabilit\u00e0 e l&#8217;accuratezza delle informazioni prodotte. <\/p>\n\n\n\n<p>In conclusione, questi episodi servono da monito per l&#8217;industria legale e per tutti i professionisti che intendono utilizzare l&#8217;intelligenza artificiale come supporto al loro lavoro. \u00c8 essenziale che gli utenti di tali tecnologie abbiano una comprensione adeguata del loro funzionamento e delle potenziali limitazioni, oltre a un&#8217;attenta verifica delle informazioni generate per evitare errori che possono avere ripercussioni legali e professionali.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-il-caso-manhattan\">Il caso Manhattan<\/h3>\n\n\n\n<p>L&#8217;utilizzo di strumenti di intelligenza artificiale come ChatGPT nel campo legale ha sollevato questioni significative riguardo l&#8217;affidabilit\u00e0 e l&#8217;accuratezza delle informazioni prodotte. <\/p>\n\n\n\n<p>Un caso emblematico \u00e8 stato quello di un avvocato di Manhattan che ha utilizzato ChatGPT per redigere un atto giuridico, citando presunti precedenti legali. Tuttavia, questi &#8220;precedenti&#8221; si sono rivelati completamente inesistenti, portando a un&#8217;azione disciplinare nei suoi confronti. <\/p>\n\n\n\n<p>La vicenda ha avuto ripercussioni legali concrete, con la multa inflitta a due avvocati newyorkesi da parte di un giudice federale per aver presentato memorie legali che contenevano precedenti giuridici inventati dalla tecnologia AI di ChatGPTmettendo in luce l&#8217;importanza di una verifica umana quando si utilizzano strumenti di intelligenza artificiale per attivit\u00e0 cos\u00ec delicate.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-il-ruolo-trasformativo-dell-intelligenza-artificiale-negli-studi-legali\"><strong>Il Ruolo Trasformativo dell&#8217;Intelligenza Artificiale negli Studi Legali<\/strong><\/h3>\n\n\n\n<p>L&#8217;IA ha dimostrato di essere un alleato prezioso per gli studi legali, poich\u00e9 offre una vasta gamma di applicazioni che migliorano l&#8217;efficienza e l&#8217;accuratezza delle attivit\u00e0 legali. Una delle principali aree in cui l&#8217;IA sta facendo la differenza \u00e8 la gestione dei documenti legali. Grazie a strumenti di intelligenza artificiale, la revisione e l&#8217;analisi di contratti e documenti legali sono diventate molto pi\u00f9 rapide e precise. Questo non solo risparmia tempo prezioso, ma riduce anche il rischio di errori umani.<\/p>\n\n\n\n<p>Un altro campo in cui l&#8217;IA sta facendo grandi progressi \u00e8 la ricerca legale. <\/p>\n\n\n\n<p>Gli algoritmi di ricerca avanzata possono esaminare enormi database giuridici per identificare casi precedenti e decisioni giuridiche pertinenti, consentendo agli avvocati di avere accesso a una vasta quantit\u00e0 di informazioni in pochissimo tempo. <\/p>\n\n\n\n<p>Ci\u00f2 \u00e8 particolarmente utile per preparare casi e supportare decisioni strategiche.<\/p>\n\n\n\n<p>Tuttavia, nonostante i benefici evidenti, l&#8217;adozione dell&#8217;IA nei settori legali non \u00e8 priva di sfide. <\/p>\n\n\n\n<p>Inoltre, c&#8217;\u00e8 la necessit\u00e0 di formare adeguatamente il personale legale sull&#8217;uso dell&#8217;IA e sulla sua integrazione nei processi esistenti. L&#8217;IA non sostituir\u00e0 gli avvocati, ma li supporter\u00e0, quindi \u00e8 essenziale che gli avvocati acquisiscano competenze per lavorare in sinergia con questa tecnologia.<\/p>\n\n\n\n<p>Un esempio concreto dell&#8217;IA che \u00e8 gi\u00e0 ampiamente utilizzato negli studi legali \u00e8 l&#8217;analisi predittiva. <\/p>\n\n\n\n<p>Pi\u00f9 in generale, in ambito legale, emergono in maniera chiara le potenzialit\u00e0 che l\u2019intelligenza artificiale generativa offre agli addetti del settore, a partire dalla suddivisione in categorie dei documenti \u2013 di significativo&nbsp;<mark>ai<\/mark>uto specie nell\u2019attivit\u00e0 di ricerca di fonti normative e giurisprudenziali \u2013 per giungere fino alla redazione completa di&nbsp;<strong>documenti legali di varia natura<\/strong>.<\/p>\n\n\n\n<p> Mentre l&#8217;attivit\u00e0 di redazione professionale comporta un elevato rischio di errore e richiede un coinvolgimento significativo del professionista, l&#8217;intelligenza artificiale (IA) pu\u00f2 rivelarsi preziosa nell&#8217;automazione di compiti pi\u00f9 routinari. Ad esempio, l&#8217;introduzione di sistemi automatizzati per monitorare le scadenze processuali potrebbe migliorare la gestione delle risorse finanziarie e del personale. <\/p>\n\n\n\n<p>Questo strumento utilizza dati storici per prevedere l&#8217;esito di casi legali, aiutando gli avvocati a formulare strategie migliori. Ci\u00f2 pu\u00f2 portare a decisioni pi\u00f9 informate e, di conseguenza, a risultati migliori per i clienti.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-la-piattaforma-harveyuna\">La piattaforma HarveyUna <\/h3>\n\n\n\n<p>Un esempio significativo \u00e8 la piattaforma Harvey, una soluzione AI avanzata che \u00e8 stata adottata da studi legali internazionali per automatizzare e ottimizzare la gestione di documenti legali come contratti e processi di due diligence e compliance.<\/p>\n\n\n\n<p> Secondo quanto riportato da <a href=\"https:\/\/www.wired.it\/article\/intelligenza-artificiale-generativa-chatbot-studi-legali\/\">Wired<\/a>, un avvocato su quattro nello studio legale Allen &amp; Overy utilizza quotidianamente la piattaforma Harvey, mentre l&#8217;80% la utilizza almeno una volta al mese<\/p>\n\n\n\n<p>La startup dietro Harvey, sostenuta dall&#8217;OpenAI Startup Fund, ha stretto una partnership globale con PwC, offrendo ai professionisti legali accesso a strumenti basati su tecnologie di elaborazione del linguaggio naturale e apprendimento automatico, come dettagliato da Dealflower<\/p>\n\n\n\n<p>Allen &amp; Overy \u00e8 stato tra i primi studi legali a integrare Harvey nella propria attivit\u00e0 globale, consentendo ai suoi oltre 3.500 avvocati in 43 uffici di generare e accedere a contenuti legali in diverse lingue, secondo quanto riportato da Lan Partners.<\/p>\n\n\n\n<p>L&#8217;uso dell&#8217;intelligenza artificiale negli studi legali migliora l&#8217;efficienza del lavoro legale attraverso l&#8217;automazione di compiti come la ricerca e l&#8217;analisi contrattuale e la generazione di documenti legali<\/p>\n\n\n\n<p><a href=\"https:\/\/www.harvey.ai\/\">https:\/\/www.harvey.ai\/<\/a><\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-casetext-e-cocounsel\">Casetext e CoCounsel<\/h3>\n\n\n\n<p>Casetext \u00e8 una societ\u00e0 legale di intelligenza artificiale che sviluppa tecnologie all&#8217;avanguardia da oltre 10 anni. Uno dei suoi prodotti degni di nota \u00e8 CoCounsel, descritto come il primo assistente legale basato sull&#8217;intelligenza artificiale. <\/p>\n\n\n\n<p>CoCounsel \u00e8 progettato per riassumere documenti legali utilizzando il linguaggio quotidiano, recuperare risorse legali pertinenti, fornire risposte a domande di ricerca e redigere rapidamente lettere ed e-mail legali comuni. La tecnologia dell&#8217;azienda \u00e8 stata adottata in tutto il mercato legale, dai grandi studi legali agli studi individuali, e offre sia funzionalit\u00e0 di ricerca convenzionale che ricerca contestuale basata sull&#8217;intelligenza artificiale. Nel 2023, Casetext \u00e8 stata acquisita da Thomson Reuters, un&#8217;importante societ\u00e0 di informazione e tecnologia. Il canale YouTube dell&#8217;azienda presenta contenuti relativi al suo assistente legale AI CoCounsel e alle sue capacit\u00e0.<\/p>\n\n\n\n<p> Questo strumento offre funzionalit\u00e0 come la revisione di documenti, la stesura rapida di lettere e email legali, nonch\u00e9 la ricerca e l&#8217;analisi di risorse legali rilevanti. CoCounsel \u00e8 descritto come un&#8217;innovazione che fornisce un vantaggio competitivo ai litiganti, aiutandoli in varie attivit\u00e0, dalla ricerca alla preparazione di memorie, alla revisione di documenti e alla preparazione di deposizioni. La piattaforma sfrutta l&#8217;IA generativa per offrire un insieme di abilit\u00e0 legali orientate al compito, accelerando e migliorando la qualit\u00e0 di una vasta gamma di attivit\u00e0 legali. CoCounsel \u00e8 stato acquisito da Thomson Reuters, un&#8217;importante azienda nel settore dell&#8217;informazione e della tecnologia.<\/p>\n\n\n\n<p><a href=\"https:\/\/casetext.com\/\">https:\/\/casetext.com\/<\/a><\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-giurimatrix\">Giurimatrix<\/h3>\n\n\n\n<p>GiuriMatrix \u00e8 un software giuridico dotato di Intelligenza Artificiale (IA) progettato per fornire risposte normative a domande poste con linguaggio naturale. Utilizza un&#8217;IA generativa per offrire risposte giuridicamente corrette e imparziali, senza essere addestrato specificamente su casi giurisprudenziali. Il software \u00e8 stato presentato presso diverse istituzioni e utilizza un&#8217;approccio basato sulla legge per mitigare problemi nel settore legale. GiuriMatrix \u00e8 stato sviluppato da un team di esperti e offre funzionalit\u00e0 avanzate per migliorare la qualit\u00e0 del lavoro svolto dai professionisti del settore legale.<\/p>\n\n\n\n<p>www.giurimatrix.it<br><\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-simpliciter\">SImpliciter<\/h3>\n\n\n\n<p>In Italia, la situazione non \u00e8 da meno con l&#8217;introduzione di Simpliciter, un assistente legale che combina le capacit\u00e0 dell&#8217;intelligenza artificiale generativa con una banca dati giuridica nazionale. <\/p>\n\n\n\n<p>Simpliciter.ai \u00e8 un&#8217;innovativa piattaforma di intelligenza artificiale progettata per assistere gli avvocati nell&#8217;analisi dei documenti e nella ricerca legale generativa. Utilizza il modello GPT-4 per fornire risposte accurate e tempestive, combinando modelli di linguaggio con una solida banca dati giuridica. La piattaforma offre un modo innovativo per facilitare il lavoro degli avvocati, consentendo loro di accedere a informazioni legali affidabili e aggiornate. Simpliciter.ai rappresenta un passo avanti nell&#8217;integrazione dell&#8217;IA negli studi legali, offrendo strumenti avanzati per migliorare la qualit\u00e0 del lavoro svolto dai professionisti del settore legale.<\/p>\n\n\n\n<p>Simpliciter \u00e8 stato addestrato sui contenuti della normativa e della giurisprudenza italiana, offrendo un supporto innovativo e specializzato ai professionisti del diritto nel paese.<\/p>\n\n\n\n<p>Questi sviluppi sottolineano come l&#8217;intelligenza artificiale stia diventando uno strumento sempre pi\u00f9 prezioso nel settore legale, non solo per migliorare l&#8217;efficienza ma anche per fornire nuove modalit\u00e0 di accesso alle informazioni giuridiche. Tuttavia, \u00e8 fondamentale che tali tecnologie vengano utilizzate con una comprensione approfondita delle loro potenzialit\u00e0 e limitazioni per garantire che la qualit\u00e0 e l&#8217;affidabilit\u00e0 dei servizi legali rimangano inalterate.<\/p>\n\n\n\n<p><a href=\"https:\/\/simpliciter.ai\/accounts\/login\/?next=\/a\/alberto\/subscription\/\">https:\/\/simpliciter.ai\/accounts\/login\/?next=\/a\/alberto\/subscription\/<\/a><\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-i-rischi-connessi\">I rischi connessi<\/h3>\n\n\n\n<p>Il &#8220;Consiglio degli Ordini Forensi d&#8217;Europa&#8221; ha preso l&#8217;iniziativa, pubblicando una guida per avvocati e studi legali sull&#8217;uso responsabile dell&#8217;IA. L&#8217;obiettivo \u00e8 duplice: sensibilizzare sulla tecnologia e fornire indicazioni pratiche per la sua implementazione.<\/p>\n\n\n\n<p>La guida pone in evidenza i rischi associati all&#8217;uso dell&#8217;IA, in particolare la problematica dei dati che possono essere trasferiti al di fuori dell&#8217;UE, sottolineando la necessit\u00e0 di conformarsi al Regolamento Generale sulla Protezione dei Dati (GDPR). <\/p>\n\n\n\n<p>Inoltre, si raccomanda una chiara definizione delle modalit\u00e0 di trattamento e conservazione dei dati personali, assicurandosi che le informazioni vengano cancellate una volta raggiunte le finalit\u00e0 prefissate.<\/p>\n\n\n\n<p>Un altro aspetto cruciale \u00e8 la trasparenza dei sistemi IA. Per contrastare la natura opaca, o &#8220;black box&#8221;, degli algoritmi, \u00e8 essenziale che gli utenti siano pienamente informati su come i loro dati vengano trattati. <\/p>\n\n\n\n<p>Inoltre, \u00e8 fondamentale evitare i bias che possono influenzare i risultati forniti dall&#8217;IA, garantendo un processo decisionale automatizzato conforme all&#8217;articolo 22 del GDPR.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-l-intelligenza-artificiale-e-il-futuro-della-professione-legale-in-europa\">L&#8217;Intelligenza Artificiale e il Futuro della Professione Legale in Europa<\/h3>\n\n\n\n<p>In un mondo in cui la tecnologia avanza a passi da gigante, il settore legale non resta a guardare. <\/p>\n\n\n\n<p>Un recente documento emanato dalla &#8220;Commissione Nuove Tecnologie&#8221; della F\u00e9d\u00e9ration des Barreaux d\u2019Europe (FBE) ne \u00e8 un esempio lampante. <\/p>\n\n\n\n<p>Le linee guida pubblicate ad agosto rappresentano una pietra miliare per l&#8217;integrazione dell&#8217;intelligenza artificiale nella pratica legale.<\/p>\n\n\n\n<p>L&#8217;obiettivo di queste direttive \u00e8 chiaro: uniformare e standardizzare l&#8217;utilizzo dei large language models e dei sistemi di IA generativa tra gli avvocati dell&#8217;Unione Europea. <\/p>\n\n\n\n<p>L&#8217;adozione di queste tecnologie promette di rivoluzionare il modo in cui gli avvocati svolgono il loro lavoro, offrendo strumenti capaci di analizzare grandi quantit\u00e0 di dati legali, predisporre bozze di documenti e persino fornire consulenze preliminari ai clienti.<\/p>\n\n\n\n<p>La FBE si impegna a garantire che questi strumenti siano usati in maniera responsabile e trasparente, con la dovuta considerazione per la riservatezza e la protezione dei dati personali. <\/p>\n\n\n\n<p>Inoltre, le linee guida puntano a garantire che tutti gli avvocati europei abbiano le stesse opportunit\u00e0 di accesso a questa tecnologia, evitando cos\u00ec disparit\u00e0 tra i diversi stati membri.<\/p>\n\n\n\n<p>Questo documento si rivela quindi essenziale non solo per gli avvocati che devono aggiornarsi su queste nuove tecnologie, ma anche per i legislatori che dovranno creare un quadro normativo adeguato. Inoltre, pone l&#8217;Europa come un attore chiave nel dibattito globale sull&#8217;etica dell&#8217;intelligenza artificiale applicata al diritto.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-sette-sfide-per-l-avvocatura-nell-era-dell-intelligenza-artificiale-una-guida-della-fbe\">Sette Sfide per l&#8217;Avvocatura nell&#8217;Era dell&#8217;Intelligenza Artificiale: Una Guida della FBE<\/h3>\n\n\n\n<p>L&#8217;integrazione dell&#8217;intelligenza artificiale nel settore legale \u00e8 un tema di crescente rilevanza, e la F\u00e9d\u00e9ration des Barreaux d\u2019Europe (FBE) non \u00e8 stata a guardare. Il suo ultimo lavoro analizza sette punti chiave per una corretta adozione dell&#8217;IA da parte degli avvocati, con l&#8217;obiettivo di massimizzare i benefici e minimizzare i rischi.<\/p>\n\n\n\n<p>1 <strong>Comprensione dell&#8217;IA Generativa:<\/strong> <\/p>\n\n\n\n<p>Una regola pratica e di buon senso \u00e8 quella di comprendere a fondo la tecnologia di intelligenza artificiale generativa. Questo principio \u00e8 ancora pi\u00f9 valido per gli avvocati. Il Forum Bar Europeo (FBE) raccomanda di dedicare tempo per approfondire le funzionalit\u00e0 dell&#8217;IA e considerare le possibili ripercussioni legali che ne derivano. Questo approccio permetter\u00e0 agli studi legali di valutare un impiego appropriato e responsabile della tecnologia nella loro pratica professionale.<\/p>\n\n\n\n<p>\u00c8 essenziale comprendere sia le minacce associate all&#8217;apprendimento automatico, come ad esempio parzialit\u00e0 e mancanza di interpretabilit\u00e0, cos\u00ec come il rischi specifici per LLM e Gen<mark>AI<\/mark>, come ad esempio le allucinazioni (creazione di informazioni o contenuti che non sono reali ma solo plausibili) &nbsp;e pregiudizi; ricordando sempre che il principio dei sistemi Large language modeling rimane quello di predire il token successivo, ossia la parola in una stringa di parole.<\/p>\n\n\n\n<p>\u00c8 fondamentale capire sia le problematiche legate all&#8217;apprendimento automatico, quali i bias e la difficolt\u00e0 nell&#8217;interpretare i modelli, sia i rischi specifici associati ai Large Language Models (LLM) e all&#8217;intelligenza artificiale generativa, come la generazione di allucinazioni, ovvero dati o contenuti non veritieri ma solo verosimili. \u00c8 importante tenere a mente che il principio cardine dei sistemi di modellazione del linguaggio su larga scala \u00e8 quello di prevedere il prossimo token, cio\u00e8 la parola successiva in una sequenza di testo.<\/p>\n\n\n\n<p>2 <strong>Riconoscimento delle Limitazioni e del Contesto:<\/strong> <\/p>\n\n\n\n<p>\u00c8 importante riconoscere i limiti e il contesto specifico del settore legale. Nonostante i notevoli sviluppi, l&#8217;intelligenza artificiale generativa presenta delle limitazioni intrinseche. I contenuti prodotti da queste AI potrebbero non essere sempre puntuali, completi o aggiornati. Al momento, le intelligenze artificiali generative sono ottimizzate per generare conversazioni generaliste e potrebbero non essere idonee per applicazioni specialistiche, come quelle legali. Pertanto, \u00e8 cruciale esaminare attentamente l&#8217;output dell&#8217;IA prima di utilizzarlo.<\/p>\n\n\n\n<p>3.  <strong>Rispetto delle Regole sull&#8217;Uso dell&#8217;IA:<\/strong><\/p>\n\n\n\n<p>\u00c8 cruciale per gli avvocati aderire alle normative vigenti sull&#8217;utilizzo dell&#8217;intelligenza artificiale. Anche se il regolamento UE sull&#8217;IA non \u00e8 ancora stato definitivamente approvato, \u00e8 fondamentale per i professionisti del diritto familiarizzare e anticipare il rispetto di tale regolamento, oltre a eventuali regolamenti nazionali o linee guida stabilite dagli ordini professionali, anche qualora non fossero formalmente obbligatori.<\/p>\n\n\n\n<p>Inoltre, \u00e8 essenziale che gli avvocati analizzino scrupolosamente i termini di servizio offerti dai fornitori di intelligenza artificiale generativa per assicurarsi che l&#8217;uso di tali tecnologie sia in linea con le norme etiche e legali vigenti.<\/p>\n\n\n\n<p>Considerando la rapidit\u00e0 con cui queste tecnologie si evolvono, gli avvocati devono restare informati sugli ultimi sviluppi e pronti a modificare le proprie prassi professionali per rimanere in linea con i cambiamenti del contesto normativo.<\/p>\n\n\n\n<p>4. <strong>Integrazione della Competenza Giuridica<\/strong>:<\/p>\n\n\n\n<p>Integrare le competenze legali con la Gen<mark>AI<\/mark>. Integrare non significa sostituire. Sistemi di Chat intelligenti possono essere strumenti utili per semplificare i processi nello studio legale e migliorare l&#8217;efficienza dei servizi legali. Ma \u00e8 importante ricordare che Gen<mark>AI<\/mark>&nbsp;non dovrebbe sostituire il giudizio professionale, l\u2019analisi giuridica e la perizia.<\/p>\n\n\n\n<p>Evitare di fare eccessivo affidamento sui risultati di Gen<mark>AI<\/mark>&nbsp;\u00e8 una buona regola; e pi\u00f9 importante ancora \u00e8 ricordare che il processo decisionale deve restare appannaggio umano.<\/p>\n\n\n\n<p>Quando lo studio legale decide di utilizzare chatbot basati su LLM in fase di onboarding; o pi\u00f9 in generale, quando il pubblico si rivolge a chatbot \u201cconsulenti\u201d, \u00e8 importante informare dei rischi associati all&#8217;affidarsi esclusivamente a questo tipo di pratica.<\/p>\n\n\n\n<p>5. <strong>Rispetto del Segreto Professionale:<\/strong> <\/p>\n\n\n\n<p>Con l&#8217;adozione crescente di sistemi basati su intelligenza artificiale, gli avvocati devono esercitare una vigilanza costante per garantire che la confidenzialit\u00e0 delle informazioni dei clienti sia salvaguardata. <\/p>\n\n\n\n<p>Questo implica la scelta di soluzioni AI che siano dotate di robuste misure di sicurezza e che siano conformi alle normative sulla protezione dei dati, come il GDPR. <\/p>\n\n\n\n<p>Gli avvocati devono assicurarsi che i dati sensibili non siano esposti a rischi di divulgazione non autorizzata, sia durante l&#8217;interazione con sistemi AI sia nel loro processo di apprendimento automatico. Inoltre, \u00e8 loro responsabilit\u00e0 informare i clienti su come le loro informazioni vengono trattate e assicurarsi che i fornitori di tecnologia AI aderiscano agli stessi standard etici e legali imposti dalla professione legale. In sintesi, l&#8217;uso dell&#8217;intelligenza artificiale da parte degli avvocati richiede un equilibrio tra l&#8217;innovazione tecnologica e l&#8217;etica professionale, con la protezione della privacy del cliente al centro di ogni decisione.<\/p>\n\n\n\n<p>6. <strong>Protezione dei Dati Personali e Privacy:<\/strong><\/p>\n\n\n\n<p>Assicurare la protezione dei dati e la privacy \u00e8 un aspetto fondamentale nell&#8217;uso della Gen AI. \u00c8 necessario svolgere un&#8217;analisi meticolosa per verificare che l&#8217;impiego della Gen AI sia conforme al Regolamento generale sulla protezione dei dati (GDPR). Gli avvocati devono essere consapevoli che l&#8217;inserimento di dati personali in sistemi di Gen AI necessita di una base legale solida e di una verifica di conformit\u00e0 con le normative sulla protezione dei dati e sulla privacy.<\/p>\n\n\n\n<p>Gli strumenti di Gen AI processano i dati non solo per fornire risposte ai prompt, ma anche per migliorare il sistema stesso. I rischi possono essere mitigati utilizzando le API o selezionando opzioni di &#8220;opt-out&#8221; che aiutano a mantenere separati i dati di input dal sistema in fase di sviluppo. Per assicurare la privacy e la tutela dei dati, \u00e8 essenziale adottare misure di sicurezza robuste che coprano sia gli aspetti tecnologici sia quelli procedurali, prevenendo l&#8217;accesso, l&#8217;utilizzo o la divulgazione non autorizzati dei dati personali.<\/p>\n\n\n\n<p>7. <strong>Informazione del Cliente e Assunzione di Responsabilit\u00e0<\/strong>:<\/p>\n\n\n\n<p>Quando uno studio legale decide di implementare strumenti di intelligenza artificiale generativa (Gen AI) nel proprio lavoro, \u00e8 essenziale che venga fatta una chiara comunicazione ai clienti. Questo comporta spiegare in modo trasparente come tali strumenti vengono utilizzati, i loro scopi, i benefici, le limitazioni e le garanzie di sicurezza, assicurandosi che i clienti capiscano il ruolo e l&#8217;estensione dell&#8217;uso della tecnologia nell&#8217;ambito dei servizi legali forniti.<\/p>\n\n\n\n<p>\u00c8 altres\u00ec fondamentale che lo studio legale si assuma la piena responsabilit\u00e0 dei risultati ottenuti attraverso l&#8217;uso della Gen AI, mantenendo la consapevolezza degli obblighi professionali e della possibile responsabilit\u00e0 legale derivante dal loro impiego. Questo include l&#8217;essere pronti a rispondere di eventuali errori o problemi che potrebbero sorgere dall&#8217;utilizzo di tali strumenti tecnologici avanzati.<\/p>\n\n\n\n<p>La FBE enfatizza che il controllo umano finale \u00e8 essenziale: ogni output generato dall&#8217;IA deve essere attentamente verificato da un avvocato per assicurare che sia accurato e aggiornato. Inoltre, \u00e8 fondamentale una lettura approfondita dei termini di servizio dei software IA utilizzati, per garantire la conformit\u00e0 agli standard etici e legali.<\/p>\n\n\n\n<p> La sfida sar\u00e0 bilanciare innovazione e tradizione, tecnologia e tocco umano, per una giustizia pi\u00f9 efficiente e accessibile.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-la-salvaguardia-del-segreto-professionale-nell-era-digitale-secondo-la-fbe\">La Salvaguardia del Segreto Professionale nell&#8217;Era Digitale secondo la FBE<\/h3>\n\n\n\n<p>L&#8217;avanzata dell&#8217;intelligenza artificiale nel settore legale solleva questioni non solo tecniche ma anche etiche e deontologiche. <\/p>\n\n\n\n<p>La F\u00e9d\u00e9ration des Barreaux d\u2019Europe (FBE) ha recentemente evidenziato l&#8217;importanza di proteggere il segreto professionale nell&#8217;era digitale, un principio che si intreccia inevitabilmente con la protezione dei dati personali.<\/p>\n\n\n\n<p>Il segreto professionale \u00e8 un baluardo della professione legale, e la sua tutela diventa ancora pi\u00f9 complessa quando si introduce l&#8217;IA nel flusso di lavoro degli avvocati. Ogni dato inserito nei software basati su IA deve essere gestito con estrema cautela, soprattutto quando si tratta di fatti, situazioni o informazioni personali dei clienti.<\/p>\n\n\n\n<p>La normativa GDPR funge da faro in questo scenario, richiedendo una base giuridica adeguata per l&#8217;elaborazione dei dati e una valutazione attenta in linea con le regole vigenti. <\/p>\n\n\n\n<p>La responsabilit\u00e0 finale delle azioni legali e delle decisioni prese rimane fermamente nelle mani degli avvocati, che devono assicurarsi che l&#8217;intelligenza artificiale sia utilizzata in modo etico e conforme alle normative, preservando l&#8217;integrit\u00e0 del loro ruolo e la fiducia dei loro clienti.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-importanza-del-segreto-professionale\">Importanza del Segreto Professionale<\/h3>\n\n\n\n<p>Il segreto professionale dell&#8217;avvocato \u00e8 uno dei pilastri fondamentali dell&#8217;etica legale e della pratica giuridica. Questo principio obbliga l&#8217;avvocato a mantenere la riservatezza di tutte le informazioni relative al proprio cliente, acquisite nel corso del rapporto professionale. La sua importanza \u00e8 riconosciuta a livello globale e trova specifica tutela in molti ordinamenti giuridici, compresi quelli europei.<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Fiducia nel Rapporto Cliente-Avvocato:<\/strong> La fiducia \u00e8 essenziale in qualsiasi rapporto legale. I clienti devono sentirsi liberi di condividere informazioni delicate con il proprio avvocato, sapendo che queste non verranno divulgate.<\/li>\n\n\n\n<li><strong>Amministrazione della Giustizia:<\/strong> Il segreto professionale permette agli avvocati di preparare la difesa senza timore che le loro strategie o le informazioni raccolte vengano esposte ai loro avversari o ad altre parti.<\/li>\n\n\n\n<li><strong>Diritti Umani:<\/strong> Il diritto alla privacy e alla riservatezza \u00e8 riconosciuto come un diritto umano fondamentale. Il segreto professionale contribuisce a proteggere questi diritti nel contesto legale.<\/li>\n<\/ol>\n\n\n\n<h3 class=\"wp-block-heading\">Sfide del Segreto Professionale nell&#8217;Era Digitale<\/h3>\n\n\n\n<p>Con l&#8217;introduzione dell&#8217;intelligenza artificiale e di altre tecnologie digitali, il segreto professionale si trova di fronte a nuove sfide:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Sicurezza dei Dati:<\/strong> L&#8217;uso di sistemi informativi e piattaforme digitali comporta rischi per la sicurezza dei dati, che devono essere mitigati attraverso misure tecniche e organizzative adeguate.<\/li>\n\n\n\n<li><strong>Compliance con GDPR:<\/strong> Nel contesto europeo, il GDPR impone requisiti stringenti per il trattamento dei dati personali, compresi quelli gestiti dagli avvocati.<\/li>\n\n\n\n<li><strong>Uso di IA e Software:<\/strong> Quando gli avvocati utilizzano software basati su intelligenza artificiale, devono assicurarsi che questi non compromettano il segreto professionale.<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading\">Responsabilit\u00e0 degli Avvocati<\/h3>\n\n\n\n<p>Gli avvocati hanno la responsabilit\u00e0 di rimanere aggiornati sulle migliori pratiche per proteggere il segreto professionale. <\/p>\n\n\n\n<p>Ci\u00f2 include la formazione continua su nuovi strumenti legaltech e normative sulla protezione dei dati, cos\u00ec come lo sviluppo di politiche interne per gestire e proteggere le informazioni sensibili.<\/p>\n\n\n\n<p>In conclusione, il segreto professionale rimane un dovere inalienabile dell&#8217;avvocato, nonostante le mutate condizioni portate dall&#8217;avanzamento tecnologico. <\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-il-microfono-del-cellulare\">Il microfono del cellulare <\/h3>\n\n\n\n<p>Tenere il microfono del cellulare acceso durante i colloqui legali pu\u00f2 rappresentare un rischio significativo per il segreto professionale dell&#8217;avvocato. Questa pratica espone a diverse minacce potenziali:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Intercezione di Comunicazioni:<\/strong> Se il dispositivo \u00e8 compromesso, le conversazioni possono essere intercettate da terze parti non autorizzate, che potrebbero ascoltare o registrare discussioni confidenziali.<\/li>\n\n\n\n<li><strong>Violazione della Privacy:<\/strong> La presenza di un microfono acceso potrebbe involontariamente catturare dettagli personali o sensibili che dovrebbero rimanere privati tra avvocato e cliente.<\/li>\n\n\n\n<li><strong>Software di Ascolto e Applicazioni di Terze Parti:<\/strong> Alcune applicazioni installate sul cellulare potrebbero avere permessi che consentono loro di accedere al microfono e di registrare l&#8217;audio ambientale, a volte anche in background.<\/li>\n\n\n\n<li><strong>Problemi di Conformit\u00e0 Legale:<\/strong> A seconda della giurisdizione, la registrazione di conversazioni senza il consenso di tutte le parti coinvolte pu\u00f2 essere illegale e portare a sanzioni penali o disciplinari.<\/li>\n<\/ol>\n\n\n\n<p>Per mitigare questi rischi, \u00e8 consigliabile adottare alcune precauzioni:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Disattivare il Microfono:<\/strong> Spegnere il microfono del cellulare o utilizzare una custodia schermante che impedisca la captazione di audio durante i colloqui riservati.<\/li>\n\n\n\n<li><strong>Politiche di Sicurezza:<\/strong> Implementare politiche di sicurezza aziendale che richiedano la disattivazione dei dispositivi di registrazione in aree dove si svolgono discussioni confidenziali.<\/li>\n\n\n\n<li><strong>Verifica delle App:<\/strong> Controllare regolarmente le autorizzazioni delle app installate sui dispositivi mobili e limitarne l&#8217;accesso al microfono solo quando strettamente necessario.<\/li>\n\n\n\n<li><strong>Sensibilizzazione:<\/strong> Informare i clienti dei rischi associati all&#8217;uso dei dispositivi mobili durante i colloqui e incoraggiarli a prendere precauzioni simili.<\/li>\n\n\n\n<li><\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-ai-nbsp-e-giusto-processo\"><mark>AI<\/mark>&nbsp;e (giusto) processo<a href=\"mailto:?subject=AI%20e%20giusto%20processo%2C%20facciamo%20il%20punto%3A%20le%20norme%2C%20le%20applicazioni%2C%20le%20sentenze&amp;body=https%3A%2F%2Fwww.agendadigitale.eu%2Fdocumenti%2Fgiustizia-digitale%2Fai-e-giusto-processo-facciamo-il-punto-le-norme-le-applicazioni-le-sentenze%2F\"><\/a><\/h3>\n\n\n\n<p>L&#8217;incursione dell&#8217;intelligenza artificiale nel sistema giuridico ha aperto nuove frontiere nella dispensazione della giustizia. <\/p>\n\n\n\n<p>L&#8217;uso di algoritmi in sede giurisdizionale non \u00e8 pi\u00f9 una prospettiva futuristica, ma una realt\u00e0 consolidata che vede coinvolte realt\u00e0 legali di vario genere, dai singoli studi legali fino ai magistrati, particolarmente in territori come gli Stati Uniti.<\/p>\n\n\n\n<p>L&#8217;IA si presenta come uno strumento di supporto decisionale, capace di analizzare dati e precedenti giuridici con una velocit\u00e0 e una precisione inarrivabili per la mente umana. <\/p>\n\n\n\n<p>Tuttavia, il suo impiego solleva questioni fondamentali in termini di equit\u00e0, trasparenza e responsabilit\u00e0.<\/p>\n\n\n\n<p>Oltreoceano, l&#8217;adozione di algoritmi da parte dei magistrati introduce un livello di complessit\u00e0 ancora maggiore. <\/p>\n\n\n\n<p>Qui l&#8217;IA potrebbe influenzare decisioni che riguardano la libert\u00e0 personale, come la determinazione della cauzione o la valutazione del rischio di recidiva. Ci\u00f2 suscita preoccupazioni legate all&#8217;imparzialit\u00e0 dell&#8217;algoritmo e alla possibilit\u00e0 che esso possa perpetuare bias esistenti o introdurne di nuovi.<\/p>\n\n\n\n<p>La sfida \u00e8 garantire che l&#8217;impiego dell&#8217;IA non solo rispetti ma rafforzi i principi del giusto processo. <\/p>\n\n\n\n<p>\u00c8 essenziale che gli algoritmi siano trasparenti, soggetti a revisione e che le loro decisioni siano spiegabili e contestabili. Inoltre, la formazione continua per gli operatori del diritto diventa cruciale per comprendere e gestire correttamente queste nuove tecnologie.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-il-caso-del-procuratore-robot-in-cina\"><strong> <\/strong>Il<strong> Caso del &#8220;Procuratore Robot&#8221; in Cina<\/strong><\/h3>\n\n\n\n<p>Un esempio sorprendente arriva dalla Cina, dove \u00e8 stato introdotto un &#8220;procuratore robot&#8221;, un algoritmo capace di elaborare ipotesi accusatorie in totale autonomia.<\/p>\n\n\n\n<p> Il software \u00e8 stato sviluppato per gestire il crescente volume di lavoro e per velocizzare i processi all&#8217;interno dell&#8217;ufficio giudiziario pi\u00f9 trafficato della Cina.<\/p>\n\n\n\n<p>I ricercatori hanno costruito e testato questo algoritmo, che pu\u00f2 analizzare <a href=\"https:\/\/www.washingtonexaminer.com\/news\/1411273\/chinese-researchers-develop-ai-prosecutor-that-can-press-charges-for-dissent\/\">fino a 1000 tratti <\/a>dalle descrizioni dei casi redatte dagli esseri umani, identificando reati come il dissenso e altri crimini <\/p>\n\n\n\n<p>La crescente integrazione dell&#8217;intelligenza artificiale (IA) nel sistema legale cinese ha compiuto un ulteriore passo avanti con l&#8217;introduzione di &#8220;System 206&#8221;, uno strumento IA avanzato utilizzato dalle procure cinesi dal 2016 per accelerare il lavoro degli inquirenti.<\/p>\n\n\n\n<p> Il professor Shi Yong, direttore del laboratorio di big data e gestione della conoscenza dell&#8217;Accademia cinese delle scienze e capo del progetto, ha recentemente presentato questo nuovo strumento con capacit\u00e0 evolute.<\/p>\n\n\n\n<p>&#8220;System 206&#8221; si distingue per la sua abilit\u00e0 nel processare accuse per otto tipi di reati, scelti tra quelli pi\u00f9 comuni e facilmente gestibili.<\/p>\n\n\n\n<p> Valuta le prove a carico e la pericolosit\u00e0 sociale sulla base dei report inseriti manualmente dagli operatori umani. I reati per cui \u00e8 stato &#8220;addestrato&#8221; includono frode con carta di credito, operazioni di gioco d&#8217;azzardo illegali, guida pericolosa, lesioni intenzionali, ostruzione ai doveri ufficiali, furto, frode e una categoria generica che potrebbe tradursi come &#8220;provocazione o raccolta di provocazioni per litigi e fomentazione di problemi&#8221;. <\/p>\n\n\n\n<p>Quest&#8217;ultima categoria, usata spesso per perseguire crimini politici, sarebbe probabilmente considerata troppo indeterminata per essere applicata nell&#8217;ordinamento italiano.<\/p>\n\n\n\n<p> la Procura Popolare di Shanghai Pudong ha attirato l&#8217;attenzione internazionale per la sperimentazione di un algoritmo di intelligenza artificiale che pu\u00f2 &#8220;elaborare accuse&#8221; con una precisione superiore al 97%, secondo quanto riportato dal<a href=\"https:\/\/www.scmp.com\/news\/china\/science\/article\/3160997\/chinese-scientists-develop-ai-prosecutor-can-press-its-own\"> South China Morning Post.<\/a><\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-autonomia-accusatoria\">Autonomia accusatoria <\/h3>\n\n\n\n<p>Questo sistema AI \u00e8 in grado di presentare un&#8217;accusa basandosi su una descrizione verbale del caso. <\/p>\n\n\n\n<p>A differenza dei precedenti sistemi IA impiegati in Cina e altrove, che fungevano principalmente da strumenti di ricerca o analisi forense, &#8220;System 206&#8221; si propone di entrare direttamente nel processo decisionale dell&#8217;accusa. Il modello presentato da Shi Yong potrebbe teoricamente formulare autonomamente un&#8217;accusa contro un sospetto, passando da un ruolo di supporto a uno decisivo nel processo legale.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-i-dubbi-le-problematiche-connesse-all-utilizzo-dell-intelligenza-artificiale-in-ambito-giudiziario\"> I dubbi  le problematiche connesse all&#8217;utilizzo dell&#8217;intelligenza artificiale in ambito giudiziario<\/h3>\n\n\n\n<p>Questo sviluppo segna una svolta significativa nell&#8217;uso dell&#8217;IA nel campo della giustizia e solleva questioni importanti riguardanti non solo l&#8217;efficienza ma anche l&#8217;etica e la legalit\u00e0. <\/p>\n\n\n\n<p>Mentre la capacit\u00e0 di ridurre il carico di lavoro degli inquirenti e di velocizzare i processi \u00e8 indiscutibile, l&#8217;autonomia concessa a un sistema algoritmico nel formulare accuse porta con s\u00e9 preoccupazioni riguardo alla trasparenza, all&#8217;accountability e al rispetto dei diritti legali degli individui.<\/p>\n\n\n\n<p>L&#8217;idea di un &#8220;Judge Dredd cinese&#8221;, come \u00e8 stato soprannominato dai media, evoca scenari futuristici nei quali l&#8217;intelligenza artificiale non solo assiste ma sostituisce i funzionari giudiziari nell&#8217;esercizio delle loro funzioni.<\/p>\n\n\n\n<p> Sebbene per ora l&#8217;algoritmo sia soltanto uno strumento ausiliario, la prospettiva che possa evolvere in un sistema autonomo di presa di decisioni legali non \u00e8 pi\u00f9 pura fantascienza.<\/p>\n\n\n\n<p>Mentre alcuni esperti accolgono con favore l&#8217;innovazione, altri mettono in guardia contro i rischi di affidarsi troppo a sistemi automatizzati, che potrebbero non essere in grado di comprendere le sfumature e i contesti complessi che spesso caratterizzano i casi legali.<\/p>\n\n\n\n<p>La possibilit\u00e0 che un algoritmo possa assumere un ruolo tradizionalmente svolto da un essere umano, specialmente in un contesto delicato come quello giudiziario, \u00e8 qualcosa che richiede un&#8217;analisi attenta e ponderata.<\/p>\n\n\n\n<p>Il &#8220;procuratore robot&#8221; cinese rappresenta una svolta significativa nella digitalizzazione della giustizia. <\/p>\n\n\n\n<p>Attraverso l&#8217;analisi dei dati e l&#8217;apprendimento automatico, questo algoritmo pu\u00f2 teoricamente formulare accuse basandosi su vasti insiemi di dati legali, identificando schemi e precedenti che potrebbero sfuggire all&#8217;occhio umano.<\/p>\n\n\n\n<p>pu\u00f2 un algoritmo comprendere il contesto umano e sociale di un&#8217;accusa? <\/p>\n\n\n\n<p>Qual \u00e8 il margine di errore? <\/p>\n\n\n\n<p>E come si pu\u00f2 garantire la trasparenza e la contestabilit\u00e0 delle decisioni prese da una macchina?<\/p>\n\n\n\n<p>Queste domande non sono meramente speculative: hanno implicazioni reali per i diritti degli imputati, per la percezione della giustizia da parte del pubblico e per la credibilit\u00e0 stessa del sistema legale.<\/p>\n\n\n\n<p>Il dibattito sulla trasparenza degli algoritmi \u00e8 centrale: i soggetti coinvolti in un procedimento legale hanno il diritto di sapere come le decisioni che li riguardano vengono prese, specialmente quando queste sono influenzate da sistemi automatizzati.<\/p>\n\n\n\n<p> La questione non \u00e8 solo tecnica ma anche etica e giuridica, poich\u00e9 tocca i principi fondamentali del diritto a un processo equo e della possibilit\u00e0 di contestare le prove.<\/p>\n\n\n\n<p> Inoltre, il rispetto dei principi fondamentali del diritto, come la presunzione di innocenza e il diritto a un processo equo, deve rimanere al centro di qualsiasi implementazione tecnologica nel campo legale.<\/p>\n\n\n\n<p>Il caso cinese potrebbe essere solo la punta dell&#8217;iceberg. <\/p>\n\n\n\n<p>Man mano che altre giurisdizioni esplorano l&#8217;uso dell&#8217;IA in contesti simili, la comunit\u00e0 internazionale dovr\u00e0 affrontare queste sfide insieme, bilanciando innovazione e tradizione, efficienza e etica. La strada verso una giustizia informatizzata \u00e8 sicuramente disseminata di promesse ma anche di pericoli potenziali, ed \u00e8 compito di tutti noi navigarla con saggezza e prudenza<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Ma non sono in Cina <\/h3>\n\n\n\n<p>L&#8217;uso dell&#8217;intelligenza artificiale (IA) nel sistema giudiziario non \u00e8 un fenomeno nuovo, e gli Stati Uniti ne sono un esempio emblematico. <\/p>\n\n\n\n<p>In particolare, strumenti di IA sono stati utilizzati per valutare il rischio di recidiva tra i detenuti, influenzando decisioni cruciali come la concessione di misure alternative al carcere o l&#8217;assegnazione di premi e benefici ai condannati.<\/p>\n\n\n\n<p>In Germania l\u2019intelligenza artificiale \u00e8 impiegata nel&nbsp;<a href=\"https:\/\/www.agendadigitale.eu\/cultura-digitale\/deepfake-sempre-piu-scaltro-evoluzioni-e-contromisure\/\"><strong>digital forensics<\/strong><\/a>&nbsp;e per il riconoscimento delle immagini. <\/p>\n\n\n\n<p>La giustizia predittiva in Francia si sta sviluppando attraverso piattaforme come Predictice.com, che utilizzano tecniche di machine learning per calcolare le probabilit\u00e0 del risultato di una causa, l&#8217;ammontare dei risarcimenti e identificare argomenti rilevanti, basandosi su milioni di leggi, norme e sentenze<\/p>\n\n\n\n<p> Ad esempio, se i dati storici utilizzati per addestrare questi algoritmi contengono bias razziali o socioeconomici, l&#8217;IA potrebbe imparare e replicare tali pregiudizi nelle sue previsioni.<\/p>\n\n\n\n<p>La \u201c<strong>polizia predittiva\u201d<\/strong>\u00a0\u00e8 una realt\u00e0 anche in Italia, dove \u00e8 stata impiegata per anticipare il verificarsi di determinati reati o per prevenire il rischio di assembramenti per le norme anti-covid.<\/p>\n\n\n\n<p>Il progetto Giove \u00e8 un sistema italiano di polizia predittiva che utilizza l&#8217;intelligenza artificiale per analizzare i dati e prevedere la possibile commissione di determinati reati. Sviluppato dal Dipartimento di Pubblica Sicurezza del Ministero dell&#8217;Interno, il software si basa sull&#8217;analisi di migliaia di dati relativi a reati gi\u00e0 commessi al fine di stilare una previsione statistica delle possibili attivit\u00e0 criminali in determinate aree e periodi. Giove \u00e8 descritto come &#8220;un sistema di elaborazione e analisi automatizzata per l\u2019ausilio delle attivit\u00e0 di polizia&#8221;, e ha l&#8217;obiettivo di migliorare la prevenzione dei crimini, cercando di predire con maggiore precisione dove e quando potrebbero essere commessi determinati reati[1][3]. Il software sfrutta la tecnologia di KeyCrime, un sistema sviluppato per la predizione di rapine commerciali, e pu\u00f2 essere utilizzato per individuare tendenze criminali e comportamenti ripetuti che possano condurre ai responsabili[2]. Tuttavia, l&#8217;uso della polizia predittiva solleva anche dubbi e criticit\u00e0, e alcuni esperti evidenziano la necessit\u00e0 di controlli e bilanciamenti per garantirne un&#8217;utilizzazione responsabile[5].<\/p>\n\n\n\n<p>L&#8217;ex Ministra della Giustizia Italiana, Marta Cartabia, affrontando la tematica dei cosiddetti &#8220;giudici robot&#8221;, ha nettamente escluso che le decisioni giudiziarie possano essere sostituite da un automatismo completo nella redazione delle sentenze, considerando questa eventualit\u00e0 un caso estremo attualmente non realizzabile.<\/p>\n\n\n\n<p><em>\u201cNell\u2019attivit\u00e0 giudiziaria si possono distinguere le fasi del conoscere e quelle del decidere \u2013 ha continuato la Ministra nel suo intervento \u2013 e nella prima, che richiede lo studio dei fatti e delle norme e della giurisprudenza applicabili alla controversia, l\u2019intelligenza artificiale pu\u00f2 portare un grande valore aggiunto per la sua immensa capacit\u00e0 di raccogliere ed elaborare dati, con una potenza che sfugge alle umane capacit\u00e0. Viceversa, il momento del decidere deve rimanere sempre nelle mani del giudice in carne ed ossa, capace di cogliere tutte le sfumature, le peculiarit\u00e0 e le irripetibili specificit\u00e0 di ogni singolo caso\u201d.<\/em><\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-gli-studi-italiani-in-materia-penale-ed-il-quadro-normativo-nazionale\"><strong>Gli studi italiani in materia penale ed il quadro normativo nazionale<\/strong><\/h3>\n\n\n\n<p>In Italia, a differenza degli Stati Uniti o della Cina, non sono ancora in uso strumenti IA avanzati per la formulazione di accuse o la previsione di recidive. <\/p>\n\n\n\n<p>L&#8217;impiego dell&#8217;intelligenza artificiale nel contesto giuridico italiano si scontra con una serie di limitazioni normative che attualmente ne impediscono l&#8217;applicazione diretta nelle decisioni giudiziarie. <\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-decreto-legislativo-nbsp-18-maggio-2018-n-51-nbsp\">DECRETO LEGISLATIVO&nbsp;18 maggio 2018, n. 51&nbsp;<\/h4>\n\n\n\n<p>Attuazione della direttiva (UE) 2016\/680 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativa alla protezione delle persone fisiche con riguardo al trattamento dei dati personali da parte delle autorita&#8217; competenti a fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali, nonche&#8217; alla libera circolazione di tali dati e che abroga la decisione quadro 2008\/977\/GAI del Consiglio. (18G00080)&nbsp;<a target=\"_blank\" href=\"https:\/\/www.gazzettaufficiale.it\/eli\/gu\/2018\/05\/24\/119\/sg\/pdf\" rel=\"noreferrer noopener\">(GU Serie Generale n.119 del 24-05-2018)<\/a><\/p>\n\n\n\n<p>Il Decreto Legislativo 51 del 2018, che recepisce la Direttiva UE 16\/680, \u00e8 chiaro: l&#8217;articolo 8 pone un divieto all&#8217;uso di decisioni automatizzate nel processo decisionale giudiziario, a meno che non vi sia un&#8217;espressa autorizzazione derivante dal diritto dell&#8217;Unione o dello Stato membro.<\/p>\n\n\n\n<p>l&#8217;articolo 8 del Decreto Legislativo 51\/2018, che recepisce la Direttiva UE 16\/680, \u00e8 un baluardo contro l&#8217;uso indiscriminato dell&#8217;intelligenza artificiale (AI) nel processo decisionale giudiziario in Italia. <\/p>\n\n\n\n<p>Art. 8 Processo decisionale automatizzato relativo alle persone fisiche 1. Sono vietate le decisioni basate unicamente su un trattamento automatizzato, compresa la profilazione, che producono effetti negativi nei confronti dell&#8217;interessato, salvo che siano autorizzate dal diritto dell&#8217;Unione europea o da specifiche disposizioni di legge. 2. Le disposizioni di legge devono prevedere garanzie adeguate per i diritti e le liberta&#8217; dell&#8217;interessato. In ogni caso e&#8217; garantito il diritto di ottenere l&#8217;intervento umano da parte del titolare del trattamento. 3. Le decisioni di cui al comma 1 non possono basarsi sulle categorie particolari di dati personali di cui all&#8217;articolo 9 del regolamento UE, salvo che siano in vigore misure adeguate a salvaguardia dei diritti, delle liberta&#8217; e dei legittimi interessi dell&#8217;interessato. 4. Fermo il divieto di cui all&#8217;articolo 21 della Carta dei diritti fondamentali dell&#8217;Unione europea, e&#8217; vietata la profilazione finalizzata alla discriminazione di persone fisiche sulla base di categorie particolari di dati personali di cui all&#8217;articolo 9 del regolamento UE.<\/p>\n\n\n\n<p>Nonostante il divieto attuale, il dibattito sull&#8217;eventuale evoluzione legislativa e l&#8217;adozione di decisioni automatizzate sia aperto e in costante evoluzione. Questo dibattito \u00e8 alimentato da una crescente consapevolezza delle potenzialit\u00e0 dell&#8217;AI nel migliorare l&#8217;efficienza e l&#8217;oggettivit\u00e0 delle decisioni legali<\/p>\n\n\n\n<p>Tuttavia, la questione etica e la protezione dei dati personali rimangono al centro delle preoccupazioni, come sottolineato in un approfondimento su Ius in Itinere. <a href=\"https:\/\/www.giurismatico.it\/ai-law-rivoluzione-nelle-sentenze-giuridiche-attraverso-gli-algoritmi\/\">L&#8217;articolo 8<\/a> del Decreto Legislativo \u00e8 stato introdotto proprio per salvaguardare i diritti fondamentali delle persone fisiche nel trattamento dei dati personali a fini giudiziari.<\/p>\n\n\n\n<p>Tuttavia, sono in fase di test strumenti volti a velocizzare le ricerche di precedenti giudiziari, sia nei tribunali ordinari che nelle corti d&#8217;appello e nella Corte di Cassazione. Questo tipo di tecnologia potrebbe migliorare l&#8217;efficienza della ricerca legale e aiutare i giudici a identificare rapidamente i casi rilevanti, ma anche in questo contesto sorge l&#8217;interrogativo sulla chiarezza dei processi decisionali basati sull&#8217;IA.<\/p>\n\n\n\n<p>In nessun caso, per\u00f2, l\u2019intelligenza artificiale ha un processo decisionale autonomo: diventa, piuttosto, uno strumento di convincimento del giudice.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">La sentenza del Consiglio di Stato<\/h3>\n\n\n\n<p>La questione del bilanciamento tra la segretezza degli algoritmi di intelligenza artificiale e i diritti individuali ha trovato un&#8217;eco significativa in una vicenda giudiziaria italiana. <\/p>\n\n\n\n<p>Un caso emblematico si \u00e8 presentato nel contesto della giustizia amministrativa, dove un candidato escluso da una selezione pubblica per impiego tramite un algoritmo ha chiesto di accedere ai parametri di tale algoritmo.<\/p>\n\n\n\n<p>Il Consiglio di Stato, con la sentenza numero 881 del 4 febbraio 2020, ha preso una decisione fondamentale, stabilendo che l&#8217;interesse individuale a conoscere i parametri dell&#8217;algoritmo prevale sul segreto commerciale del tool. <\/p>\n\n\n\n<p>Il tema affrontato, quindi, riguardava non tanto l\u2019impiego dell\u2019IA in sede giurisdizionale, quanto piuttosto il diritto dell\u2019interessato a conoscere la base di programmazione dell\u2019intelligenza artificiale. <\/p>\n\n\n\n<p>Il Consiglio di Stato ha affermato che,&nbsp;<mark>ai<\/mark>&nbsp;sensi dell\u2019articolo 22,paragrafo 1, del GDPR \u2013&nbsp;<strong>letto anche alla luce del&nbsp;<em>Considerando<\/em>&nbsp;71 dello stesso Regolamento&nbsp;<\/strong>-, non sono consentiti processi decisionali interamente automatizzati e che, in virt\u00f9 dell\u2019articolo 15 del GDPR, l\u2019interessato ha il pieno diritto a conoscere la \u201cbase algoritmica\u201d.<\/p>\n\n\n\n<p>Il Considerando 71 del Regolamento Generale sulla Protezione dei Dati (GDPR) stabilisce un principio fondamentale di non discriminazione nell&#8217;uso degli algoritmi. <\/p>\n\n\n\n<p>Questo principio \u00e8 essenziale per garantire che i trattamenti automatizzati, inclusa la profilazione, non producano effetti discriminatori basati su caratteristiche sensibili quali razza, opinioni politiche, religione, stato di salute o orientamento sessuale.<\/p>\n\n\n\n<p>Il GDPR richiede che i titolari dei trattamenti adottino procedure matematiche o statistiche adeguate per minimizzare il rischio di errori e inesattezze nei dati che potrebbero portare a discriminazioni. \u00c8 fondamentale che le misure tecniche e organizzative siano messe in atto per garantire la sicurezza dei dati personali e che ci sia una modalit\u00e0 di trattamento che consideri i potenziali rischi per gli interessi e i diritti degli interessati.<\/p>\n\n\n\n<p>In pratica, questo significa che quando un algoritmo \u00e8 impiegato in decisioni che hanno un impatto significativo su un individuo, non solo deve essere comprensibile e trasparente, ma deve anche essere privo di pregiudizi. <\/p>\n\n\n\n<p>In caso di potenziali discriminazioni, il GDPR suggerisce che i dati &#8220;in ingresso&#8221; utilizzati dall&#8217;algoritmo debbano essere rettificati per evitare effetti discriminatori nell&#8217;output decisionale. <\/p>\n\n\n\n<p>Questo richiede una cooperazione attiva da parte di coloro che programmano e gestiscono tali sistemi decisionali automatizzati [4].<\/p>\n\n\n\n<p> La non discriminazione algoritmica \u00e8 un tema di rilevanza crescente nell&#8217;era dell&#8217;intelligenza artificiale, dove gli algoritmi giocano un ruolo sempre pi\u00f9 centrale nelle decisioni che possono cambiare la vita delle persone. <\/p>\n\n\n\n<p>La sfida sta nel garantire che queste tecnologie siano utilizzate in modo responsabile e in conformit\u00e0 con i principi di giustizia e uguaglianza sanciti dal diritto europeo.<\/p>\n\n\n\n<p>Il GDPR non prescrive misure specifiche obbligatorie per garantire la sicurezza dei dati, ma lascia ai titolari del trattamento il compito di valutare e implementare le misure pi\u00f9 adeguate in base ai rischi associati al tipo di trattamento effettuato.<\/p>\n\n\n\n<p>Secondo il GDPR.eu, l&#8217;articolo 22 protegge gli individui dalle decisioni prese esclusivamente sulla base di processi automatizzati, inclusa la profilazione, che hanno un impatto significativo sui loro diritti legali o su aspetti importanti della loro vita.<\/p>\n\n\n\n<p>Nel caso in cui una decisione automatizzata \u201cproduca effetti giuridici che riguardano o che incidano significativamente su una persona\u201d, questa ha diritto a che tale decisione non sia basata unicamente su tale processo automatizzato (art. 22 Reg.). <\/p>\n\n\n\n<p>In proposito,&nbsp;<strong>deve comunque esistere nel processo decisionale un contributo umano capace di controllare, validare ovvero smentire la decisione automatica<\/strong>. In ambito matematico ed informativo il modello viene definito come HITL (human in the loop), in cui, per produrre il suo risultato \u00e8 necessario che la macchina interagisca con l\u2019essere umano.<\/p>\n\n\n\n<p>Tuttavia \u00e8 necessario non solo che ci sia un intervento umano, ma che questo sia significativo. Non \u00e8 sufficiente avere una revisione umana pro forma; l&#8217;intervento deve essere sostanziale e in grado di modificare la decisione se necessario.<\/p>\n\n\n\n<p>Questa sentenza si fonda sui principi enunciati nell&#8217;articolo 42 della Carta dei diritti fondamentali dell&#8217;Unione Europea e nell&#8217;articolo 15 del Regolamento europeo 16\/679, meglio noto come GDPR.<\/p>\n\n\n\n<p>La sentenza rappresenta un precedente significativo, ponendo le basi per un maggiore equilibrio tra la protezione dei dati personali e la trasparenza nei processi decisionali automatizzati. La decisione del Consiglio di Stato riflette un orientamento giurisprudenziale che privilegia il diritto degli individui di comprendere e contestare le decisioni che li riguardano, specialmente quando queste sono il risultato di processi algoritmici.<\/p>\n\n\n\n<p>Il caso mette in luce l&#8217;importanza dell&#8217;accessibilit\u00e0 e della trasparenza delle tecnologie IA nel settore pubblico, sottolineando la necessit\u00e0 di garantire che tali sistemi non siano solo giusti e imparziali, ma anche aperti al controllo e alla comprensione da parte dei cittadini. <\/p>\n\n\n\n<p>La sentenza  sottolinea la necessit\u00e0 di trasparenza e il diritto dei cittadini a comprendere il processo decisionale automatizzato e che  il processo decisionale algoritmico non abbia un effetto discriminatorio. <\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-le-questioni-da-risolvere-e-i-possibili-conflitti-all-interno-dei-singoli-stati\">Le questioni da risolvere e i possibili conflitti all&#8217;interno dei singoli stati.<\/h3>\n\n\n\n<p>L&#8217;interpretazione dell&#8217;articolo 22 del GDPR e del relativo Considerando 71 solleva questioni complesse riguardo al processo decisionale automatizzato.<\/p>\n\n\n\n<p> L&#8217;articolo 22, in particolare il paragrafo 2, insieme al Considerando 71, contempla le situazioni in cui tale processo decisionale \u00e8 permesso in base al diritto dell&#8217;Unione o al diritto di uno Stato membro. <\/p>\n\n\n\n<p>Questo implica che, nonostante l&#8217;articolo 22 del GDPR tenda a limitare le decisioni basate esclusivamente su processi automatizzati, esistono eccezioni legate al diritto specifico di uno Stato membro o dell&#8217;Unione.<\/p>\n\n\n\n<p>La giurisprudenza consolidata della Corte di Giustizia dell&#8217;Unione Europea riconosce che anche la prassi amministrativa pu\u00f2 essere elemento di violazione del diritto dell&#8217;Unione. <\/p>\n\n\n\n<p>Ci\u00f2 significa che una prassi che deleghi completamente la decisione a un algoritmo potrebbe essere considerata come &#8220;diritto di uno Stato membro&#8221; e quindi potrebbe essere soggetta a rinvio pregiudiziale se ritenuta in contrasto con il diritto dell&#8217;Unione .<\/p>\n\n\n\n<p>In un contesto giuridico, questo apre la strada a potenziali impugnazioni davanti alla Corte di Giustizia, laddove le prassi nazionali in termini di decisioni automatizzate entrino in conflitto con i principi del GDPR. <\/p>\n\n\n\n<p>L&#8217;articolo 22 e il Considerando 71 del GDPR forniscono una cornice per la tutela dell&#8217;individuo dalle decisioni automatizzate, ma i dettagli e i limiti di questa protezione sono ancora oggetto di interpretazione e dibattito. <\/p>\n\n\n\n<p>Le norme europee sono chiare nel richiedere trasparenza e giustificazione nelle decisioni automatizzate, ma come queste si applichino in pratica pu\u00f2 variare a seconda delle leggi nazionali e delle prassi amministrative.<\/p>\n\n\n\n<p>In conclusione, mentre il GDPR fornisce un quadro normativo per il processo decisionale automatizzato, la sua applicazione pratica richiede un&#8217;attenta considerazione del diritto nazionale e dell&#8217;interpretazione giurisprudenziale. La tensione tra l&#8217;autonomia degli Stati membri e i principi del diritto dell&#8217;Unione rimane un punto focale nel dibattito sulla regolamentazione dell&#8217;intelligenza artificiale in Europa.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><\/h3>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-la-sentenza-sul-caso-loomis\">La sentenza sul caso Loomis<\/h3>\n\n\n\n<p>Il &#8220;caso Loomis&#8221; si riferisce a un controverso episodio giudiziario negli Stati Uniti, in cui l&#8217;uso di un algoritmo chiamato COMPAS ha influenzato la decisione della pena. <\/p>\n\n\n\n<p>Nel 2013, Eric Loomis \u00e8 stato condannato a sei anni di reclusione in Wisconsin. <\/p>\n\n\n\n<p>Durante il processo, i calcoli del COMPAS hanno indicato un alto rischio di recidiva per Loomis, e questo \u00e8 stato uno dei fattori considerati nella determinazione della pena. <\/p>\n\n\n\n<p>La Corte Suprema del Wisconsin ha affrontato una questione controversa: l&#8217;uso di algoritmi nell&#8217;ambito giudiziario. <\/p>\n\n\n\n<p>Nel caso di <a href=\"http:\/\/chrome-extension:\/\/efaidnbmnnnibpcajpcglclefindmkaj\/https:\/\/www.wicourts.gov\/sc\/opinion\/DisplayDocument.pdf?content=pdf&amp;seqNo=171690\">Loomis<\/a>, un software chiamato COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) \u00e8 stato utilizzato per valutare il rischio di recidiva di un imputato, influenzando cos\u00ec la sentenza.<\/p>\n\n\n\n<p>il software COMPAS utilizza algoritmi e dati storici per valutare il rischio di recidiva di un individuo condannato. Questi algoritmi considerano una serie di fattori, come ad esempio l&#8217;et\u00e0, la storia criminale e altri elementi, al fine di generare i punteggi di rischio. <\/p>\n\n\n\n<p>Nel dettaglio, il software COMPAS aveva classificato Loomis come individuo ad elevato rischio di recidiva, escludendolo di conseguenza dalla possibilit\u00e0 di beneficiare di alternative al carcere. La questione centrale davanti alla Corte Suprema del Wisconsin riguardava proprio l&#8217;uso di tale algoritmo, che secondo l&#8217;argomentazione della difesa avrebbe violato il diritto di Loomis a un processo equo, noto come &#8220;due process of law&#8221;<\/p>\n\n\n\n<p>Il software COMPAS, sviluppato da Northpointe (ora Equivant), genera punteggi di rischio basati su vari fattori e dati raccolti. <\/p>\n\n\n\n<p>Questi <a href=\"https:\/\/law.justia.com\/cases\/wisconsin\/supreme-court\/2016\/2015ap000157-cr.html\">punteggi<\/a> sono destinati a guidare i giudici nelle decisioni relative alle sentenze, suggerendo se un individuo sia a rischio di recidiva o meno.<\/p>\n\n\n\n<p>Nel caso di Loomis, il punteggio di rischio elevato generato dal COMPAS ha contribuito a una sentenza sfavorevole per l&#8217;imputato. <\/p>\n\n\n\n<p>Loomis ha contestato l&#8217;uso del <a href=\"https:\/\/jolt.law.harvard.edu\/digest\/algorithmic-due-process-mistaken-accountability-and-attribution-in-state-v-loomis-1\">punteggio COMPAS<\/a>, sostenendo che violasse i suoi diritti di processo equo, in quanto n\u00e9 lui n\u00e9 il tribunale avevano accesso alla metodologia o alle formule utilizzate dall&#8217;algoritmo per generare il punteggio.<\/p>\n\n\n\n<p>La Corte Suprema del Wisconsin ha stabilito che, se utilizzato correttamente, l&#8217;uso di una valutazione del rischio COMPAS durante la sentenza non viola il diritto dell&#8217;imputato al processo equo. La stessa  ha inoltre affermato che l&#8217;uso dei punteggi di rischio COMPAS nel caso specifico non era un abuso di discrezione da parte del tribunale e che il tribunale non aveva abusato della sua discrezione considerando le informazioni fornite dal punteggio di rischio.<\/p>\n\n\n\n<p>Il caso Loomis diventa quindi un punto di riferimento per il dibattito sull&#8217;integrazione dell&#8217;intelligenza artificiale nel diritto penale e sulle implicazioni etiche e legali che ne derivano. <\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-la-decione-della-corte\">La decione della Corte <\/h3>\n\n\n\n<p>La Corte Suprema del Wisconsin ha affermato che il punteggio di rischio era solo uno dei fattori considerati e che la sentenza non sarebbe stata differente senza di esso e, per questo motivo,  ha rigettato l\u2019impugnazione, sostanzialmente affermando che la sentenza di primo grado non sarebbe stata diversa senza i risultati dell\u2019algoritmo. <\/p>\n\n\n\n<p>Ma se la sentenza non fosse stata diversa ed il risultato dell\u2019algoritmo fosse solo uno dei molteplici fattori \u2013 peraltro non decisivo! \u2013 per la sentenza, questo algoritmo, esattamente, a cosa \u00e8 servito in quel processo?<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-la-carta-etica-europea-sull-utilizzo-dell-ai-nbsp-nei-sistemi-giudiziari\">La Carta etica europea sull\u2019utilizzo dell\u2019<mark>AI<\/mark>&nbsp;nei sistemi giudiziari<\/h3>\n\n\n\n<p>La Carta etica europea sull&#8217;utilizzo dell&#8217;intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, adottata dalla Commissione europea per l&#8217;efficacia della giustizia (CEPEJ) nel 2018, segna un passo significativo nella regolamentazione etica dell&#8217;AI nel contesto giuridico. <\/p>\n\n\n\n<p>Questo documento \u00e8 fondamentale perch\u00e9 stabilisce principi etici che dovrebbero guidare l&#8217;uso dell&#8217;AI nei sistemi giudiziari, con l&#8217;obiettivo di migliorare l&#8217;efficienza senza compromettere la giustizia e le libert\u00e0 fondamentali.<\/p>\n\n\n\n<p>La Carta riconosce il potenziale dell&#8217;AI per incrementare la prevedibilit\u00e0 e la coerenza delle decisioni giudiziarie in ambito civile, commerciale e amministrativo. <\/p>\n\n\n\n<p>Tuttavia, esprime cautela nel suo utilizzo in materia penale, sottolineando la necessit\u00e0 di prevenire discriminazioni e garantire le garanzie di un processo equo, in particolare quando si tratta di dati sensibili.<\/p>\n\n\n\n<p>Questi principi sono un chiaro riferimento alle preoccupazioni relative alla giustizia predittiva e ai possibili bias negli algoritmi. <\/p>\n\n\n\n<p>La CEPEJ sottolinea che, mentre l&#8217;AI pu\u00f2 contribuire a rendere la giustizia pi\u00f9 efficiente, \u00e8 essenziale che qualsiasi uso rispetti i diritti fondamentali e non introduca nuove forme di discriminazione. <\/p>\n\n\n\n<p>Inoltre, la Carta etica suggerisce che ogni decisione presa con il supporto dell&#8217;AI dovrebbe essere sottoposta a revisione umana, in linea con il principio &#8220;human in the loop&#8221; discusso in precedenza.<\/p>\n\n\n\n<p>La Carta etica della CEPEJ rappresenta quindi un importante punto di riferimento per gli Stati membri del Consiglio d&#8217;Europa nel regolamentare l&#8217;uso dell&#8217;intelligenza artificiale nei loro sistemi giudiziari. <\/p>\n\n\n\n<p>Questo documento \u00e8 indicativo della crescente consapevolezza europea delle sfide poste dall&#8217;integrazione dell&#8217;AI nella societ\u00e0 e delle necessarie precauzioni etiche che devono accompagnare il suo sviluppo e utilizzo.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-i-cinque-principi-della-carta\">I cinque principi della Carta<\/h3>\n\n\n\n<p>La Carta etica europea sull&#8217;utilizzo dell&#8217;intelligenza artificiale nei sistemi giudiziari, adottata dalla CEPEJ nel 2018, stabilisce cinque principi fondamentali per guidare l&#8217;impiego responsabile dell&#8217;AI nel contesto giuridico. <\/p>\n\n\n\n<p>Questi principi sono progettati per assicurare che l&#8217;adozione dell&#8217;AI rispetti i diritti umani e promuova la giustizia e l&#8217;equit\u00e0.<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Principio del rispetto dei diritti fondamentali<\/strong>: Questo principio sottolinea l&#8217;importanza di garantire che l&#8217;uso dell&#8217;AI sia in linea con i diritti umani fondamentali. Ci\u00f2 significa che gli strumenti di AI devono essere progettati e implementati in modo da rispettare la dignit\u00e0 umana, la privacy, la libert\u00e0 di espressione e altri diritti garantiti a livello europeo e internazionale.<\/li>\n\n\n\n<li><strong>Principio di non-discriminazione<\/strong>: L&#8217;AI deve essere sviluppata per prevenire la discriminazione anzich\u00e9 intensificarla. Ci\u00f2 implica un&#8217;attenzione particolare nella progettazione degli algoritmi per assicurare che non perpetuino pregiudizi esistenti o creino nuove forme di discriminazione tra individui o gruppi.<\/li>\n\n\n\n<li><strong>Principio di qualit\u00e0 e sicurezza<\/strong>: I dati e le decisioni giudiziarie trattati tramite AI devono basarsi su fonti certificate e dati affidabili. Inoltre, \u00e8 essenziale che l&#8217;AI operi in un ambiente tecnologico sicuro per proteggere l&#8217;integrit\u00e0 dei dati e le informazioni sensibili.<\/li>\n\n\n\n<li><strong>Principio di trasparenza, imparzialit\u00e0 ed equit\u00e0<\/strong>: Le metodologie utilizzate per il trattamento dei dati devono essere aperte e comprensibili, consentendo verifiche esterne. Questo principio \u00e8 cruciale per garantire che le parti interessate possano comprendere come l&#8217;AI \u00e8 stata utilizzata nelle decisioni che li riguardano.<\/li>\n\n\n\n<li><strong>Principio del controllo da parte dell\u2019utilizzatore<\/strong>: L&#8217;ultimo principio enfatizza il diritto degli utenti di comprendere e controllare come l&#8217;AI viene utilizzata nelle loro interazioni. Ci\u00f2 significa che gli utenti dovrebbero avere la possibilit\u00e0 di optare per non usare l&#8217;AI o di comprendere pienamente le implicazioni delle loro scelte quando interagiscono con sistemi automatizzati.<\/li>\n<\/ol>\n\n\n\n<p>Questi principi rappresentano un tentativo importante di bilanciare i benefici dell&#8217;AI con la necessit\u00e0 di proteggere i valori fondamentali della societ\u00e0. La Carta etica serve come punto di riferimento per gli sviluppatori, i legislatori e gli operatori del sistema giudiziario, sottolineando che l&#8217;integrazione dell&#8217;AI nei sistemi giudiziari deve essere svolta con cautela e responsabilit\u00e0.<\/p>\n\n\n\n<p>La sentenza Loomis ha evidenziato l&#8217;importanza di alcuni principi etici che trovano riscontro anche nella Carta etica europea della CEPEJ, in particolare per quanto riguarda il rispetto dei diritti fondamentali e il controllo da parte dell&#8217;utilizzatore.<\/p>\n\n\n\n<p>Nella sentenza Loomis, i primi due principi citati nella Carta &#8211; rispetto dei diritti fondamentali e non-discriminazione &#8211; e il quinto principio &#8211; il controllo da parte dell&#8217;utilizzatore &#8211; sono stati esplicitamente discussi. <\/p>\n\n\n\n<p>Questi principi sono stati riconosciuti come essenziali per garantire che l&#8217;uso dell&#8217;AI nel contesto giuridico non comprometta i diritti individuali e che gli individui abbiano la possibilit\u00e0 di comprendere e contestare le decisioni prese con il supporto dell&#8217;AI.<\/p>\n\n\n\n<p>La Carta etica della CEPEJ sottolinea l&#8217;importanza che tali strumenti siano conoscibili agli attori del processo, tra cui parti, avvocati e magistrati, per garantire un processo equo e trasparente.<\/p>\n\n\n\n<p>In conclusione, la sentenza Loomis e la Carta etica europea della CEPEJ condividono una visione comune: l&#8217;integrazione dell&#8217;intelligenza artificiale nei sistemi giudiziari dovrebbe essere accompagnata da un rigoroso rispetto dei diritti umani e da un impegno verso la trasparenza e la responsabilit\u00e0. <\/p>\n\n\n\n<p>Questo \u00e8 cruciale per mantenere la fiducia nel sistema giuridico e assicurare che le tecnologie emergenti servano a supportare e non a minare la giustizia.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-l-esperimento-di-prodigit\"><strong>L\u2019esperimento di Prodigit<\/strong><\/h3>\n\n\n\n<p>Nel 2023, il Ministero dell\u2019Economia e delle Finanze italiano ha investito circa 8 milioni di euro nel sviluppo di un sistema di intelligenza artificiale (IA) destinato al processo tributario.  <\/p>\n\n\n\n<p>Prodigit ha l&#8217;obiettivo di utilizzare l&#8217;intelligenza artificiale per sintetizzare le sentenze delle Commissioni tributarie territoriali, migliorando cos\u00ec l&#8217;efficienza e la trasparenza del processo tributario<\/p>\n\n\n\n<p>L&#8217;obiettivo del sistema \u00e8 quello di automatizzare la sintesi delle sentenze di merito, facilitando cos\u00ec la massimizzazione dei giudizi delle Commissioni tributarie territoriali. <\/p>\n\n\n\n<p>Questo progetto punta a incrementare l&#8217;efficienza, la trasparenza e l&#8217;affidabilit\u00e0 nella conoscibilit\u00e0 dei risultati del processo tributario, allineandosi con i requisiti dell&#8217;articolo 22 del GDPR.<\/p>\n\n\n\n<p>Il sistema, denominato Prodigit, sembra non aver sollevato controversie in termini di compliance con il GDPR. <\/p>\n\n\n\n<p>Tuttavia, alcune preoccupazioni sono state espresse dagli operatori del settore. <\/p>\n\n\n\n<p>Una delle questioni sollevate riguarda il potenziale rischio di profilazione delle decisioni dei singoli giudici in base a specifiche questioni, dal momento che una summarization su larga scala consente teoricamente di associare ogni giudice relatore con tipologie particolari di decisioni. Sebbene questi dati siano pubblici e non vi sia una ragione legale che impedisca di collegare un giudice alle sue sentenze, esistono sensibilit\u00e0 diverse riguardo a questa pratica.<\/p>\n\n\n\n<p>In aggiunta, c&#8217;\u00e8 il timore che la sintesi automatizzata delle sentenze possa influenzare la loro massimazione, ovvero la creazione di principi giuridici generali derivati dalle decisioni specifiche. Questo processo potrebbe essere visto come un passo verso la standardizzazione delle decisioni giudiziarie, il che solleva domande sull&#8217;impatto che tale pratica potrebbe avere sull&#8217;indipendenza del potere giudiziario.<\/p>\n\n\n\n<p> La massimazione, ovvero l&#8217;estrazione di principi giuridici dalle sentenze per formare massime, non \u00e8 un processo neutro. Implica un&#8217;astrazione che va dal particolare al generale e, se la summarization non \u00e8 neutra, nemmeno la massimazione lo sar\u00e0.<\/p>\n\n\n\n<p>Le preoccupazioni riguardano in particolare l&#8217;uso di modelli come ChatGPT nell&#8217;elaborazione delle massime.<\/p>\n\n\n\n<p> Secondo i principi della Carta etica europea sull&#8217;utilizzo dell&#8217;intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, \u00e8 fondamentale assicurare qualit\u00e0, sicurezza e trasparenza nell&#8217;uso dell&#8217;AI. Un modello proprietario che non \u00e8 trasparente nella sua base algoritmica solleva dubbi, soprattutto quando si tratta di questioni di propriet\u00e0 intellettuale.<\/p>\n\n\n\n<p>Una questione ancora aperta \u00e8 la conformit\u00e0 dell&#8217;uso dei sistemi di generazione automatica di testo nel settore giuridico con le normative sulla protezione dei dati personali, come il GDPR, e con le norme in fase di elaborazione a livello europeo, come l&#8217;AI Act. <\/p>\n\n\n\n<p> La creazione di riassunti non solleva problemi sotto il profilo del GDPR poich\u00e9 le sentenze vengono anonimizzate e sono documenti di dominio pubblico. <\/p>\n\n\n\n<p>Pi\u00f9 complessa appare l&#8217;analisi della compatibilit\u00e0 con l&#8217;AI Act, che identifica alcune applicazioni di intelligenza artificiale come ad alto rischio e impone regolamentazioni rigorose anche per le IA generaliste, come ChatGPT. <\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-il-progetto-della-corte-di-appello-di-brescia\">Il progetto della Corte di Appello di Brescia<\/h3>\n\n\n\n<p>In Italia sono stati avviati progetti innovativi che adottano l&#8217;intelligenza artificiale per la giustizia predittiva. Uno di questi, avviato dalla Corte di Appello e dal Tribunale di Brescia in collaborazione con l&#8217;Universit\u00e0 degli Studi di Brescia, \u00e8 attivo da novembre 2021 e si concentra attualmente sul diritto del lavoro e sul diritto delle imprese. <\/p>\n\n\n\n<p>Il progetto \u00e8 accessibile attraverso il sito web degli uffici giudiziari coinvolti.<\/p>\n\n\n\n<p> L&#8217;obiettivo \u00e8 quello di offrire agli utenti e agli operatori economici dati che possano conferire certezza e prevedibilit\u00e0 alle decisioni giudiziarie, con la finalit\u00e0 di ridurre il numero di cause infondate, aumentare la trasparenza delle decisioni giudiziarie, facilitare la coerenza tra le sentenze di primo e secondo grado e risolvere le discrepanze inconsapevoli nella giurisprudenza.<\/p>\n\n\n\n<p>Questo approccio non mira a sostituire i giudici umani ma a fornire un supporto decisionale basato su vasti database di sentenze passate. Il progetto, una collaborazione tra la Corte di Appello di Brescia, il Tribunale di Brescia e l&#8217;Universit\u00e0 di Brescia, punta a migliorare la prevedibilit\u00e0 e la trasparenza del sistema giudiziario, influenzando positivamente sia l&#8217;economia che la giustizia e contribuendo alla creazione di una rete virtuosa. <\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-il-progetto-della-corte-di-appello-di-venezia\">Il progetto della Corte di Appello di Venezia<\/h3>\n\n\n\n<p>Un altro progetto notevole \u00e8 stato avviato dalla Corte di Appello di Venezia, in collaborazione con l&#8217;Universit\u00e0 Ca&#8217; Foscari, Unioncamere del Veneto e con il supporto tecnico della Societ\u00e0 Deloitte. La prima fase del progetto si \u00e8 focalizzata esclusivamente sui casi di licenziamento per giusta causa, con l&#8217;obiettivo di digitalizzare e analizzare tutte le sentenze emesse nel distretto nel periodo 2019-2021. L&#8217;intento \u00e8 rendere accessibili i precedenti giurisprudenziali e rendere pi\u00f9 prevedibili le decisioni future, con la speranza di dissuadere azioni legali che hanno scarse possibilit\u00e0 di successo.<\/p>\n\n\n\n<p>Il progetto della Corte di Appello di Venezia, noto come &#8220;Giurisprudenza Predittiva&#8221;, \u00e8 stato realizzato in collaborazione con l&#8217;Universit\u00e0 Ca&#8217; Foscari di Venezia, Unioncamere del Veneto e altre istituzioni. L&#8217;obiettivo del progetto \u00e8 quello di aumentare l&#8217;efficienza dei processi lavorativi e migliorare la qualit\u00e0 ed efficacia delle decisioni giudiziarie[1][2]. Questa iniziativa rientra in un pi\u00f9 ampio movimento di sperimentazione in Italia, che coinvolge diverse corti d&#8217;appello e tribunali, al fine di integrare l&#8217;uso dell&#8217;intelligenza artificiale nel contesto giudiziario[4]. Il progetto mira a fornire dati fondamentali per la certezza del diritto e la prevedibilit\u00e0 delle decisioni legali, al fine di offrire orientamenti sugli esiti delle cause, sia agli utenti che agli avvocati[5].<\/p>\n\n\n\n<p><a href=\"https:\/\/cache-tribunale-ca-venezia.edicom.info\/news\/giurisprudenza-predittiva.html\">https:\/\/cache-tribunale-ca-venezia.edicom.info\/news\/giurisprudenza-predittiva.html<\/a><\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-la-black-box\">La black box<\/h3>\n\n\n\n<p>Le macchine risultano ancora troppo oscure e difficili da decifrare per quanto riguarda le loro modalit\u00e0 di raggiungimento di specifiche conclusioni, nonch\u00e9 il modo in cui valutano e integrano i vari fattori nella loro analisi. <\/p>\n\n\n\n<p>C&#8217;\u00e8 un crescente desiderio che le macchine siano &#8220;intuibili&#8221;, ovvero che i principi secondo cui operano possano essere delineati chiaramente; solo in questo modo potremmo ottenere una forma di giustificazione delle loro azioni. <\/p>\n\n\n\n<p>Tuttavia, gli esperti nel campo dell&#8217;intelligenza artificiale ci avvertono che questa trasparenza \u00e8 al massimo parziale. <\/p>\n\n\n\n<p>John Kleinberg, un noto ingegnere informatico, ha osservato che &#8220;Forse per la prima volta nella storia, abbiamo costruito macchine le cui modalit\u00e0 operative ci sono sostanzialmente ignote\u2026 non comprendiamo veramente la genesi del comportamento che osserviamo, e questa \u00e8 la vera natura della loro opacit\u00e0&#8221; <\/p>\n\n\n\n<p>Questo passaggio mette in luce una sfida fondamentale nel campo dell&#8217;AI: il concetto di &#8220;black box&#8221;, dove gli algoritmi possono essere cos\u00ec complessi o astratti che anche i loro creatori faticano a spiegare come arrivano a determinate conclusioni. Questa caratteristica dell&#8217;AI solleva questioni cruciali riguardanti la responsabilit\u00e0, la fiducia e la governance, soprattutto quando le decisioni dell&#8217;AI hanno un impatto significativo sulla vita delle persone e sui sistemi sociali.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\" \/>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-il-passato-come-fondamento-il-dilemma-della-giustizia-algoritmica\">Il Passato come Fondamento: Il Dilemma della Giustizia Algoritmica<\/h3>\n\n\n\n<p>L&#8217;IA giudiziaria \u00e8 intrinsecamente legata ai precedenti, poich\u00e9 si nutre di dati storici per formulare le sue analisi. <\/p>\n\n\n\n<p>Questo aspetto suscita preoccupazioni, poich\u00e9 un sistema cos\u00ec fortemente ancorato al passato potrebbe non essere adeguatamente attrezzato per affrontare nuove sfide giuridiche o evoluzioni sociali. In Italia, ad esempio, pur non esistendo un vincolo formale ai precedenti al di fuori dei principi di diritto stabiliti dalla Corte di Cassazione, c&#8217;\u00e8 una forte tradizione che vede il giudice come soggetto esclusivamente alla legge.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-un-equilibrio-tra-tradizione-e-innovazione\">Un Equilibrio tra Tradizione e Innovazione<\/h4>\n\n\n\n<p>Uno degli ostacoli principali all&#8217;adozione dell&#8217;intelligenza artificiale (IA) nei sistemi giudiziari \u00e8 la difficolt\u00e0 di interpretarne il processo decisionale. Questa caratteristica di non trasparenza dell&#8217;IA genera dubbi sulla sua capacit\u00e0 di essere resa trasparente, ovvero &#8220;conoscibile&#8221;, e pone questioni rilevanti riguardo alla sua capacit\u00e0 di fornire giustificazioni comprensibili per le decisioni che influenzano.<\/p>\n\n\n\n<p>La giustizia algoritmica si trova al crocevia tra il desiderio di modernizzazione e l&#8217;importanza di mantenere i principi fondamentali del diritto. Mentre l&#8217;efficienza e la coerenza sono obiettivi lodevoli, non possono essere perseguiti a scapito della trasparenza e dell&#8217;equit\u00e0. \u00c8 fondamentale che ogni implementazione dell&#8217;IA nel sistema giudiziario sia accompagnata da un dibattito pubblico aperto e da un quadro normativo solido che tuteli sia gli operatori del diritto sia i cittadini.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-la-legge-francese-e-la-protezione-dell-identita-dei-giudici\">La Legge Francese e la Protezione dell&#8217;Identit\u00e0 dei Giudici<\/h3>\n\n\n\n<p>In Francia, la legge n. 2019-222 ha introdotto un divieto specifico contro l&#8217;uso dei dati identificativi dei giudici per analisi o previsioni delle loro decisioni. Questa mossa legislativa \u00e8 stata interpretata come una risposta diretta alle preoccupazioni sulla giustizia predittiva e sulla profilazione dei giudici tramite IA. <\/p>\n\n\n\n<p>La legge francese sembra riconoscere che i dati relativi alle decisioni passate dei giudici, se usati impropriamente, possono portare a conclusioni errate o perfino a una forma di pressione sulle future decisioni giudiziarie.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-le-allucinazioni\">Le allucinazioni<\/h3>\n\n\n\n<p>Due recenti studi universitari hanno messo in luce nuovi aspetti dell&#8217;impiego dei modelli di linguaggio a larga scala (LLM) nel campo legale.<\/p>\n\n\n\n<p> Da un lato,<a href=\"https:\/\/www.altalex.com\/documents\/news\/2024\/01\/29\/legal-gpt-large-languag-modelling-impreparati-fino-88-allucinazioni\"> l&#8217;Universit\u00e0 di Stanford <\/a>ha quantificato il fenomeno delle cosiddette &#8220;allucinazioni&#8221; dei LLM, ovvero risposte non accurate o inventate, quando questi sistemi vengono interrogati su argomenti giuridici. <\/p>\n\n\n\n<p> Queste &#8220;allucinazioni&#8221; si verificano quando gli algoritmi IA producono risultati non basati sui dati di addestramento, decodificati in modo errato o senza un pattern riconoscibile, con possibili implicazioni legali ed etiche. <\/p>\n\n\n\n<p>Inoltre le prestazioni degli LLM si deteriorano significativamente, riscontrando allucinazioni nel 75% dei casi, specialmente quando vengono interrogati su sentenze o decisioni specifiche o quando le domande riguardano o i casi pi\u00f9 vecchi o quelli pi\u00f9 recenti della Corte Suprema, e quelli meno comuni tra quelli dell&#8217;ultimo secolo.<\/p>\n\n\n\n<p>Un secondo rischio sistemico identificato d<mark>ai<\/mark>&nbsp;ricercatori \u00e8 che i LLM possano contribuire alla &#8220;monocultura&#8221; giuridica, portando gli utenti verso una prospettiva giudiziaria ristretta e trascurando la diversit\u00e0 delle interpretazioni giuridiche. Questo \u00e8 preoccupante sia dal punto di vista sostanziale sia per la rappresentanza: i LLM possono sistematicamente escludere i contributi di membri della comunit\u00e0 giuridica.<\/p>\n\n\n\n<p>Le percentuali di allucinazione peraltro valgono per tutte le versioni di base dei LLM pi\u00f9 famosi: GPT 3.5 (di Open<mark>AI<\/mark>), Llama 2 (di Meta), and PaLM 2 (di Google).<\/p>\n\n\n\n<p>L&#8217;Universit\u00e0 di Bologna ha effettivamente sviluppato ricerche nel campo del linguaggio giuridico generativo, mirando a identificare e utilizzare i pattern tipici del linguaggio legale per fornire risposte giuridicamente corrette senza richiedere un addestramento specifico su documenti legali. <\/p>\n\n\n\n<p>Questo approccio potrebbe avere implicazioni significative per l&#8217;elaborazione automatica del linguaggio naturale nel contesto legale. Tuttavia, al momento non sono disponibili informazioni dettagliate sui metodi specifici utilizzati per raggiungere questo obiettivo.<\/p>\n\n\n\n<p> L&#8217;obiettivo era esplorare le differenze tra il legalese e il linguaggio naturale e come tale conoscenza possa contribuire a superare la sfida della scarsit\u00e0 di dati nella trattazione del linguaggio giuridico, permettendo l&#8217;uso di modelli linguistici generali non specificamente addestrati su testi legali.<\/p>\n\n\n\n<p>Il gruppo ha indagato come la complessit\u00e0 delle frasi nei documenti legali possa ostacolare la comprensione da parte dei modelli di linguaggio a larga scala (LLM), e ha identificato un approccio per isolare pattern nel legalese che catturano essenzialmente i concetti giuridici, per poi interrogare efficacemente i LLM.<\/p>\n\n\n\n<p>Il gruppo di ricerca ha sviluppato un Q4EU, un insieme di dati specificamente progettato per l&#8217;addestramento di modelli di linguaggio legale a larga scala (LLM). Questo data set \u00e8 composto da 70 domande e 200 risposte che abbracciano sei differenti ambiti del diritto normativo europeo, tra cui il diritto internazionale privato, il mandato d&#8217;arresto europeo, la protezione dei dati e le firme elettroniche, forneo cos\u00ec una risorsa preziosa per l&#8217;allenamento di LLM specializzati nel settore legale.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">La giustizia predittiva \u00e8 costituzionalmente complaiant? <\/h3>\n\n\n\n<p> L&#8217;articolo 101 afferma che la giustizia \u00e8 amministrata in nome del popolo e l&#8217;articolo 102 pone i giudici al di sopra di ogni altro potere dello Stato. Inoltre, l&#8217;articolo 111 stabilisce il diritto a un processo equo e imparziale.<\/p>\n\n\n\n<p>L&#8217;uso di strumenti di IA nella giustizia predittiva potrebbe, in teoria, migliorare l&#8217;efficienza del sistema giudiziario, riducendo i tempi dei processi e fornendo ai giudici strumenti aggiuntivi per le loro valutazioni. <\/p>\n\n\n\n<p>Tuttavia, la vincolativit\u00e0 delle decisioni prese da sistemi automatizzati pone problemi di compatibilit\u00e0 con i principi costituzionali. La Costituzione, infatti, attribuisce ai giudici la responsabilit\u00e0 ultima delle decisioni giudiziarie, presupponendo un processo decisionale umano, consapevole e critico.<\/p>\n\n\n\n<p>Affidare a un algoritmo la capacit\u00e0 di influenzare in modo vincolante le decisioni giudiziarie potrebbe quindi entrare in conflitto con la Costituzione italiana in quanto:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Autonomia del giudice<\/strong>: L&#8217;indipendenza del giudice potrebbe essere compromessa se le sue decisioni fossero subordinate a previsioni algoritmiche.<\/li>\n\n\n\n<li><strong>Trasparenza e motivazione delle sentenze<\/strong>: I processi decisionali basati su IA spesso mancano di trasparenza a causa della loro natura &#8220;black box&#8221;, che potrebbe rendere difficile per un giudice motivare adeguatamente la sua sentenza.<\/li>\n\n\n\n<li><strong>Eguaglianza dei cittadini davanti alla legge<\/strong>: L&#8217;uso di algoritmi potrebbe introdurre bias sistemici o discriminazioni nascoste che violano il principio di eguaglianza.<\/li>\n\n\n\n<li><strong>Diritto al contraddittorio<\/strong>: La difficolt\u00e0 di comprendere o contestare le valutazioni basate sull&#8217;IA potrebbe limitare il diritto delle parti di discutere e confutare le prove contro di loro.<\/li>\n<\/ol>\n\n\n\n<p>In sintesi, mentre l&#8217;innovazione tecnologica pu\u00f2 offrire strumenti ausiliari preziosi, la Costituzione italiana richiede che le decisioni finali restino fermamente nelle mani dei decisori umani. <\/p>\n\n\n\n<p>Per garantire che l&#8217;uso dell&#8217;IA nel sistema giudiziario sia conforme ai principi costituzionali, sarebbe necessario un quadro normativo chiaro che regoli l&#8217;integrazione di tali tecnologie, assicurando che i giudici mantengano il controllo finale sulle decisioni e che i diritti dei cittadini siano salvaguardati.<\/p>\n\n\n\n<p>In astratto, invece, non \u00e8 ipotizzabile una vincolativit\u00e0 per decisori umani \u2013 procuratori o giudici \u2013 a strumenti di intelligenza artificiale a Costituzione invariata.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-chatgpt-l-intelligenza-artificiale-usata-in-un-tribunale-colombiano\">ChatGPT, l\u2019Intelligenza Artificiale usata in un tribunale colombiano<\/h3>\n\n\n\n<p>ChatGPT \u00e8 stato impiegato in Colombia per assistere nella stesura di una sentenza di secondo grado, creando un caso di riferimento nell&#8217;ambito della giustizia in America Latina. <\/p>\n\n\n\n<p>Il giudice Juan Manuel Padilla ha utilizzato il software durante la redazione delle argomentazioni a supporto della sua decisione su una causa che coinvolgeva il pagamento di spese mediche.<\/p>\n\n\n\n<p>Nonostante il giudice abbia esercitato il proprio giudizio in modo indipendente, ha utilizzato il chatbot per affinare la formulazione del testo della sentenza. <\/p>\n\n\n\n<p>Questo solleva questioni sulla funzione del giudice nell&#8217;era dell&#8217;intelligenza artificiale.<\/p>\n\n\n\n<p>Il giudice Padilla ha difeso l&#8217;uso di ChatGPT, sottolineando che l&#8217;obiettivo non \u00e8 quello di sostituire il giudice con la tecnologia, ma piuttosto di migliorare la qualit\u00e0 e l&#8217;efficienza del suo lavoro. Secondo lui, l&#8217;integrazione di testi generati dall&#8217;IA nelle sentenze non mira a rimpiazzare il processo decisionale del giudice, ma a ottimizzare i tempi di redazione delle stesse.<\/p>\n\n\n\n<p>ChatGPT \u00e8 stato impiegato in Colombia per assistere nella stesura di una sentenza di secondo grado, creando un caso di riferimento nell&#8217;ambito della giustizia in America Latina. Il giudice Juan Manuel Padilla ha utilizzato il software durante la redazione delle argomentazioni a supporto della sua decisione su una causa che coinvolgeva il pagamento di spese mediche.<\/p>\n\n\n\n<p>Nonostante il giudice abbia esercitato il proprio giudizio in modo indipendente, ha utilizzato il chatbot per affinare la formulazione del testo della sentenza. Questo solleva questioni sulla funzione del giudice nell&#8217;era dell&#8217;intelligenza artificiale.<\/p>\n\n\n\n<p>Il giudice Padilla ha difeso l&#8217;uso di ChatGPT, sottolineando che l&#8217;obiettivo non \u00e8 quello di sostituire il giudice con la tecnologia, ma piuttosto di migliorare la qualit\u00e0 e l&#8217;efficienza del suo lavoro. Secondo lui, l&#8217;integrazione di testi generati dall&#8217;IA nelle sentenze non mira a rimpiazzare il processo decisionale del giudice, ma a ottimizzare i tempi di redazione delle stesse.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-il-caso-in-peru\">il caso in Per\u00f9<\/h3>\n\n\n\n<p>In Per\u00f9, l&#8217;intelligenza artificiale \u00e8 stata utilizzata per determinare l&#8217;assegno di mantenimento che un padre doveva versare per la figlia in un caso di divorzio. La piattaforma di intelligenza artificiale OpenAI &#8211; Chat GPT \u00e8 stata impiegata per calcolare il contributo dovuto da ciascun genitore in base al proprio reddito, al fine di stabilire le spese di mantenimento della figlia<\/p>\n\n\n\n<p>  L&#8217;algoritmo ha stabilito che il padre dovesse versare il 20% del suo reddito per il sostentamento della figlia. Questo uso dell&#8217;intelligenza artificiale rappresenta un esempio innovativo nell&#8217;ambito della giustizia familiare, anche se in Italia l&#8217;uso di Chat GPT \u00e8 attualmente bloccato dal Garante della privacy. Per ulteriori dettagli, l&#8217;articolo completo \u00e8 disponibile su <a href=\"https:\/\/www.italiaoggi.it\/news\/assegno-di-mantenimento-dei-figli-decide-chat-gpt-2598613\">ItaliaOggi<\/a>.<\/p>\n\n\n\n<p><a href=\"https:\/\/www.italiaoggi.it\/news\/assegno-di-mantenimento-dei-figli-decide-chat-gpt-2598613\">https:\/\/www.italiaoggi.it\/news\/assegno-di-mantenimento-dei-figli-decide-chat-gpt-2598613<\/a><\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-conclusioni\">Conclusioni<\/h3>\n\n\n\n<p><strong>Intelligenza Artificiale e Giustizia Predittiva: Una Sfida per la Trasparenza e la Tutela dell&#8217;Uomo<\/strong><\/p>\n\n\n\n<p>Nel panorama giuridico contemporaneo, l&#8217;Intelligenza Artificiale (IA) si staglia come un gigante dalle molteplici facce. Da una parte, promette efficienza e velocit\u00e0, dall&#8217;altra solleva dubbi e perplessit\u00e0, soprattutto quando si avventura nel delicato settore della giustizia predittiva. Quest&#8217;ultima, applicazione che si nutre di dati per preconfezionare soluzioni, incarna l&#8217;apice di un dibattito ancora infiammato: fino a che punto possiamo affidarci alle decisioni di un algoritmo?<\/p>\n\n\n\n<p>La giustizia predittiva, che sembra sottrarre all&#8217;uomo il suo ruolo di giudice e difensore, come delineato dagli artt. 84 e 113 c.p.c., non \u00e8 che l&#8217;ultima frontiera di un dibattito pi\u00f9 ampio che interroga la trasparenza delle operazioni algoritmiche. Il fil rouge che lega le digressioni apparentemente collaterali \u00e8 la necessit\u00e0 di rendere le decisioni algoritmiche non solo visibili ma comprensibili, trasformando il codice in regole giuridiche rispettose delle tutele individuali.<\/p>\n\n\n\n<p>La sfida \u00e8 ardua: come tradurre il dataset di un algoritmo in una norma chiara per i suoi destinatari? Come garantire il diritto di difesa e di accesso ai dati sensibili per chi viene &#8220;inciso&#8221; dall&#8217;IA? La risposta sembra risiedere nella possibilit\u00e0 di &#8220;cavalcare la tigre&#8221; della rivoluzione digitale non con passivit\u00e0, ma con la consapevolezza che l&#8217;intelligenza umana deve rimanere al timone.<\/p>\n\n\n\n<p>Il lavoro umano, dunque, non viene escluso ma si configura come il regolatore supremo dell&#8217;IA. Nonostante gli sconvolgimenti portati dalle nuove tecnologie, l&#8217;uomo resta al centro del processo produttivo e cognitivo. Questo non esenta dal considerare i rimedi risarcitori per gli utenti dell&#8217;IA, come suggerisce la proposta della Commissione Europea di una nuova direttiva sulla Product Liability, che cerca di adeguare la tutela dei consumatori all&#8217;era digitale.<\/p>\n\n\n\n<p>In questo contesto, le recenti sentenze giurisprudenziali impongono limiti all&#8217;utilizzo dei meccanismi algoritmici e ribadiscono l&#8217;importanza di un uso non discriminatorio e giusto dell&#8217;IA. La giustizia amministrativa, in particolare, ha sottolineato che l&#8217;algoritmo non pu\u00f2 ridurre le tutele procedurali, rafforzando i principi di trasparenza e obiettivit\u00e0.<\/p>\n\n\n\n<p>In conclusione, se da un lato l&#8217;IA pu\u00f2 sembrare un mare tempestoso di incognite e sfide, dall&#8217;altro rappresenta un oceano di opportunit\u00e0 se navigato con saggezza e previdenza. \u00c8 essenziale che la societ\u00e0 civile, il mondo accademico e il legislatore lavorino insieme per assicurare che la marcia inarrestabile dell&#8217;innovazione tecnologica non travolga i diritti fondamentali dell&#8217;uomo, ma anzi li protegga e li valorizzi nell&#8217;era digitale.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img fetchpriority=\"high\" decoding=\"async\" width=\"1024\" height=\"768\" src=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2024\/01\/presentazione-2.jpg\" alt=\"\" class=\"wp-image-5510\" srcset=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2024\/01\/presentazione-2.jpg 1024w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2024\/01\/presentazione-2-300x225.jpg 300w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2024\/01\/presentazione-2-768x576.jpg 768w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2024\/01\/presentazione-2-480x360.jpg 480w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n","protected":false},"excerpt":{"rendered":"<p>Premessa: Il ruolo dell\u2019intelligenza artificiale generativa Il principale esempio \u00e8 quello correlato all\u2019impiego di strumenti di intelligenza artificiale (\u201cIA\u201d) generativa. La generazione di contenuti attraverso l&#8217;intelligenza artificiale \u00e8 un tema caldo nel panorama tecnologico attuale. I modelli linguistici di grandi dimensioni, noti come Large Language Models (LLM), sono al centro di questa rivoluzione, in grado [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":5868,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[44,1],"tags":[],"class_list":["post-5854","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-diritto-rovescio","category-non-categorizzato"],"yoast_head":"<!-- This site is optimized with the Yoast SEO Premium plugin v23.3 (Yoast SEO v25.6) - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>IA e avvocati: un rapporto difficile ? - PB Consulting<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ia-e-avvocati-un-rapporto-difficile\/\" \/>\n<meta property=\"og:locale\" content=\"en_US\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"IA e avvocati: un rapporto difficile ?\" \/>\n<meta property=\"og:description\" content=\"Premessa: Il ruolo dell\u2019intelligenza artificiale generativa Il principale esempio \u00e8 quello correlato all\u2019impiego di strumenti di intelligenza artificiale (\u201cIA\u201d) generativa. La generazione di contenuti attraverso l&#8217;intelligenza artificiale \u00e8 un tema caldo nel panorama tecnologico attuale. I modelli linguistici di grandi dimensioni, noti come Large Language Models (LLM), sono al centro di questa rivoluzione, in grado [&hellip;]\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ia-e-avvocati-un-rapporto-difficile\/\" \/>\n<meta property=\"og:site_name\" content=\"PB Consulting\" \/>\n<meta property=\"article:author\" content=\"https:\/\/www.facebook.com\/alberto.bozzo.9\" \/>\n<meta property=\"article:published_time\" content=\"2024-02-04T15:35:44+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-02-06T20:29:48+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2024\/02\/Progetto-senza-titolo-2.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1080\" \/>\n\t<meta property=\"og:image:height\" content=\"1350\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Alberto Bozzo\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Alberto Bozzo\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"60 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ia-e-avvocati-un-rapporto-difficile\/\",\"url\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ia-e-avvocati-un-rapporto-difficile\/\",\"name\":\"IA e avvocati: un rapporto difficile ? - PB Consulting\",\"isPartOf\":{\"@id\":\"https:\/\/www.consultingpb.com\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ia-e-avvocati-un-rapporto-difficile\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ia-e-avvocati-un-rapporto-difficile\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2024\/02\/Progetto-senza-titolo-2.jpg\",\"datePublished\":\"2024-02-04T15:35:44+00:00\",\"dateModified\":\"2024-02-06T20:29:48+00:00\",\"author\":{\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50\"},\"breadcrumb\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ia-e-avvocati-un-rapporto-difficile\/#breadcrumb\"},\"inLanguage\":\"en-US\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ia-e-avvocati-un-rapporto-difficile\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ia-e-avvocati-un-rapporto-difficile\/#primaryimage\",\"url\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2024\/02\/Progetto-senza-titolo-2.jpg\",\"contentUrl\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2024\/02\/Progetto-senza-titolo-2.jpg\",\"width\":1080,\"height\":1350},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ia-e-avvocati-un-rapporto-difficile\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/www.consultingpb.com\/en\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"IA e avvocati: un rapporto difficile ?\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/www.consultingpb.com\/#website\",\"url\":\"https:\/\/www.consultingpb.com\/\",\"name\":\"PB Consulting\",\"description\":\"\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/www.consultingpb.com\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"en-US\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50\",\"name\":\"Alberto Bozzo\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g\",\"caption\":\"Alberto Bozzo\"},\"sameAs\":[\"https:\/\/www.consultingpb.com\/\",\"https:\/\/www.facebook.com\/alberto.bozzo.9\",\"https:\/\/www.instagram.com\/ab_dirittorovescio\/\",\"https:\/\/www.linkedin.com\/in\/alberto-bozzo-57982b63\/\"],\"url\":\"https:\/\/www.consultingpb.com\/en\/blog\/author\/alberto\/\"}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"IA e avvocati: un rapporto difficile ? - PB Consulting","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ia-e-avvocati-un-rapporto-difficile\/","og_locale":"en_US","og_type":"article","og_title":"IA e avvocati: un rapporto difficile ?","og_description":"Premessa: Il ruolo dell\u2019intelligenza artificiale generativa Il principale esempio \u00e8 quello correlato all\u2019impiego di strumenti di intelligenza artificiale (\u201cIA\u201d) generativa. La generazione di contenuti attraverso l&#8217;intelligenza artificiale \u00e8 un tema caldo nel panorama tecnologico attuale. I modelli linguistici di grandi dimensioni, noti come Large Language Models (LLM), sono al centro di questa rivoluzione, in grado [&hellip;]","og_url":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ia-e-avvocati-un-rapporto-difficile\/","og_site_name":"PB Consulting","article_author":"https:\/\/www.facebook.com\/alberto.bozzo.9","article_published_time":"2024-02-04T15:35:44+00:00","article_modified_time":"2024-02-06T20:29:48+00:00","og_image":[{"width":1080,"height":1350,"url":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2024\/02\/Progetto-senza-titolo-2.jpg","type":"image\/jpeg"}],"author":"Alberto Bozzo","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Alberto Bozzo","Est. reading time":"60 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ia-e-avvocati-un-rapporto-difficile\/","url":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ia-e-avvocati-un-rapporto-difficile\/","name":"IA e avvocati: un rapporto difficile ? - PB Consulting","isPartOf":{"@id":"https:\/\/www.consultingpb.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ia-e-avvocati-un-rapporto-difficile\/#primaryimage"},"image":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ia-e-avvocati-un-rapporto-difficile\/#primaryimage"},"thumbnailUrl":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2024\/02\/Progetto-senza-titolo-2.jpg","datePublished":"2024-02-04T15:35:44+00:00","dateModified":"2024-02-06T20:29:48+00:00","author":{"@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50"},"breadcrumb":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ia-e-avvocati-un-rapporto-difficile\/#breadcrumb"},"inLanguage":"en-US","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ia-e-avvocati-un-rapporto-difficile\/"]}]},{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ia-e-avvocati-un-rapporto-difficile\/#primaryimage","url":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2024\/02\/Progetto-senza-titolo-2.jpg","contentUrl":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2024\/02\/Progetto-senza-titolo-2.jpg","width":1080,"height":1350},{"@type":"BreadcrumbList","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ia-e-avvocati-un-rapporto-difficile\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/www.consultingpb.com\/en\/"},{"@type":"ListItem","position":2,"name":"IA e avvocati: un rapporto difficile ?"}]},{"@type":"WebSite","@id":"https:\/\/www.consultingpb.com\/#website","url":"https:\/\/www.consultingpb.com\/","name":"PB Consulting","description":"","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.consultingpb.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"en-US"},{"@type":"Person","@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50","name":"Alberto Bozzo","image":{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g","caption":"Alberto Bozzo"},"sameAs":["https:\/\/www.consultingpb.com\/","https:\/\/www.facebook.com\/alberto.bozzo.9","https:\/\/www.instagram.com\/ab_dirittorovescio\/","https:\/\/www.linkedin.com\/in\/alberto-bozzo-57982b63\/"],"url":"https:\/\/www.consultingpb.com\/en\/blog\/author\/alberto\/"}]}},"_links":{"self":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/5854","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/comments?post=5854"}],"version-history":[{"count":15,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/5854\/revisions"}],"predecessor-version":[{"id":5871,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/5854\/revisions\/5871"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/media\/5868"}],"wp:attachment":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/media?parent=5854"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/categories?post=5854"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/tags?post=5854"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}