{"id":3231,"date":"2023-10-22T08:55:41","date_gmt":"2023-10-22T08:55:41","guid":{"rendered":"https:\/\/www.consultingpb.com\/?p=3231"},"modified":"2023-10-22T08:55:43","modified_gmt":"2023-10-22T08:55:43","slug":"ai-act-a-che-punto-siamo","status":"publish","type":"post","link":"https:\/\/www.consultingpb.com\/en\/blog\/diritto-rovescio\/ai-act-a-che-punto-siamo\/","title":{"rendered":"Dirittorovescio: AI ACT &#8211; a che punto siamo"},"content":{"rendered":"\n<figure class=\"wp-block-image size-large is-resized\"><img fetchpriority=\"high\" decoding=\"async\" width=\"1024\" height=\"1024\" src=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/dirittorovescio-1-1024x1024.png\" alt=\"\" class=\"wp-image-3267\" style=\"aspect-ratio:1;width:126px;height:auto\" srcset=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/dirittorovescio-1-1024x1024.png 1024w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/dirittorovescio-1-300x300.png 300w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/dirittorovescio-1-150x150.png 150w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/dirittorovescio-1-768x768.png 768w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/dirittorovescio-1-480x480.png 480w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/dirittorovescio-1.png 1080w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<h1 class=\"wp-block-heading alignwide has-text-align-center has-medium-font-size\">Un lungo e complicato percorso<\/h1>\n\n\n\n<p>Il 14 giugno 2023, il Parlamento europeo ha approvato l&#8217;Artificial Intelligence Act, un regolamento che regola l&#8217;uso dell&#8217;intelligenza artificiale nell&#8217;Unione Europea.<\/p>\n\n\n\n<p>La legge prevede norme specifiche per la protezione dei diritti fondamentali, la trasparenza e la responsabilit\u00e0 nell&#8217;utilizzo dell&#8217;IA.<\/p>\n\n\n\n<p>L&#8217;UE regolamenta l&#8217;Intelligenza Artificiale per garantire lo sviluppo e l&#8217;utilizzo ottimali.<\/p>\n\n\n\n<p>Nell&#8217;aprile del 2021, la Commissione Europea ha presentato il primo quadro normativo dell&#8217;Unione Europea per l&#8217;Intelligenza Artificiale. Questa proposta di regolamentazione dell&#8217;IA \u00e8 stata sviluppata per proteggere i diritti dei cittadini e promuovere l&#8217;innovazione tecnologica in modo etico e sicuro.<\/p>\n\n\n\n<p>L&#8217;obiettivo \u00e8 garantire l&#8217;utilizzo responsabile dell&#8217;IA per evitare impatti negativi sulla societ\u00e0 e sull&#8217;ambiente. Il quadro normativo definisce anche le condizioni per l&#8217;uso dell&#8217;IA in settori come la salute, il trasporto, l&#8217;energia e la pubblica amministrazione.<\/p>\n\n\n\n<p>I sistemi di intelligenza artificiale sono sempre pi\u00f9 diffusi in diversi settori, come la medicina, l&#8217;industria automobilistica e la sicurezza informatica.<\/p>\n\n\n\n<p>La proposta di regolamento sull&#8217;Intelligenza Artificiale (IA) dell&#8217;Unione Europea (UE) mira a instillare fiducia nell&#8217;utilizzo dell&#8217;IA da parte degli europei.<\/p>\n\n\n\n<p>Nonostante la maggior parte dei sistemi di IA non presenti rischi, alcuni di essi possono avere conseguenze indesiderate. L&#8217;obiettivo \u00e8 affrontare tali rischi in modo che l&#8217;IA possa contribuire a risolvere diverse sfide sociali. <\/p>\n\n\n\n<p>La comprensione del ragionamento alla base delle decisioni o previsioni di un sistema di IA pu\u00f2 risultare difficile, rendendo complicato valutare eventuali svantaggi ingiusti in situazioni come la selezione del personale o la richiesta di servizi pubblici.<\/p>\n\n\n\n<p>Analizzare e classificare i rischi per gli utenti \u00e8 fondamentale considerando la sicurezza dei dati e la possibilit\u00e0 di errori.<\/p>\n\n\n\n<p>In questo modo, si pu\u00f2 garantire che i sistemi di intelligenza artificiale siano sicuri ed efficienti per gli utenti.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><em>I diversi livelli di rischio significheranno pi\u00f9 o meno regolamentazione.<\/em><\/p>\n\n\n\n<p><\/p>\n\n\n\n<p>\u00c8 il primo regolamento sull&#8217;Intelligenza Artificiale al mondo, che regola lo sviluppo, la commercializzazione e l&#8217;utilizzo dei sistemi di IA.<\/p>\n\n\n\n<p>L&#8217;AI Act \u00e8 stato creato per garantire che lo sviluppo dell&#8217;Intelligenza Artificiale rispetti i valori e i diritti dell&#8217;Unione Europea.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><em>\u201cScopo del presente regolamento \u00e8 promuovere l&#8217;adozione di un&#8217;intelligenza artificiale antropocentrica e affidabile e garantire un elevato livello di protezione della salute, della sicurezza, dei diritti fondamentali, della democrazia e dello Stato di diritto e dell&#8217;ambiente dagli effetti nocivi dei sistemi di intelligenza artificiale nell&#8217;Unione, sostenendo allo stesso tempo l&#8217;innovazione\u201d.&nbsp;<\/em><\/p>\n\n\n\n<p><em>&#8220;una legislazione che senza dubbio stabilir\u00e0 lo standard globale per gli anni a venire&#8221;.<\/em><\/p>\n\n\n\n<p><\/p>\n\n\n\n<p>L&#8217;UE e gli USA hanno invitato a implementare le norme dell&#8217;AI Act prima della conclusione dell&#8217;iter continentale per tracciare un confine utile per una regolamentazione globale.<\/p>\n\n\n\n<p>Ci\u00f2 garantir\u00e0 l&#8217;etica e la responsabilit\u00e0 nell&#8217;utilizzo di questa tecnologia in rapida evoluzione. <\/p>\n\n\n\n<p>Inoltre, si \u00e8 evidenziata l&#8217;importanza di introdurre un codice di condotta volontario per le principali aziende che sviluppano software di intelligenza artificiale per garantire una maggiore trasparenza e sicurezza nell&#8217;utilizzo di questa tecnologia.<\/p>\n\n\n\n<h1 class=\"wp-block-heading has-text-align-center has-medium-font-size\"><strong>La posizione del Parlamento Europeo <\/strong><\/h1>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter\"><img decoding=\"async\" src=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/istockphoto-1336804231-612x612-1.jpg\" alt=\"\" \/><figcaption class=\"wp-element-caption\">European Parliament interior in Brussels, Belgium.<\/figcaption><\/figure>\n<\/div>\n\n\n<p>La priorit\u00e0 del Parlamento europeo \u00e8 garantire che i sistemi di intelligenza artificiale utilizzati nell&#8217;Unione Europea siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell&#8217;ambiente.<\/p>\n\n\n\n<p>Tali sistemi dovrebbero essere progettati in modo affidabile e prevedibile per evitare qualsiasi rischio per la sicurezza o la privacy delle persone. Inoltre, essi dovrebbero essere trasparenti, in modo che gli utenti possano comprendere il loro funzionamento e come vengono utilizzati i loro dati. <\/p>\n\n\n\n<p>Infine, dovrebbero essere tracciabili, in modo che sia possibile risalire alle decisioni prese dai sistemi di intelligenza artificiale e verificare che siano state prese in modo equo e non discriminatorio.<\/p>\n\n\n\n<p>L&#8217;importanza di garantire la massima sicurezza e affidabilit\u00e0 dei sistemi di intelligenza artificiale \u00e8 sempre pi\u00f9 rilevante nella vita quotidiana delle persone, sia nel campo della salute che del lavoro.<\/p>\n\n\n\n<p>Il Parlamento intende stabilire una definizione uniforme e tecnologicamente neutra dell&#8217;intelligenza artificiale, al fine di applicarla ai sistemi futuri.<\/p>\n\n\n\n<h1 class=\"wp-block-heading has-text-align-center has-medium-font-size\"><strong>AI Act: regole diverse per diversi livelli di rischio<\/strong><\/h1>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter is-resized\"><img decoding=\"async\" src=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/istockphoto-526555752-612x612-1.jpg\" alt=\"\" style=\"aspect-ratio:1;width:400px;height:auto\" \/><\/figure>\n<\/div>\n\n\n<p>Il regolamento introdotto ha lo scopo di garantire la sicurezza, la trasparenza e l&#8217;etica dell&#8217;Intelligenza Artificiale in Europa.<\/p>\n\n\n\n<p>La normativa dell&#8217;UE regola l&#8217;uso dell&#8217;intelligenza artificiale attraverso un sistema chiamato risk-based approach, che impone obblighi di conformit\u00e0 diversi a seconda del rischio di danno ai diritti fondamentali causato dal software e dall&#8217;IA.<\/p>\n\n\n\n<p>Anche se molti sistemi di intelligenza artificiale comportano rischi minimi, \u00e8 importante valutare attentamente i rischi potenziali prima di utilizzarli.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/image.png\" alt=\"\" \/><\/figure>\n\n\n\n<p class=\"has-text-align-center has-luminous-vivid-orange-background-color has-background has-medium-font-size\"><strong>Rischio inaccettabile<\/strong><\/p>\n\n\n\n<p>Rischio inaccettabile I sistemi di intelligenza artificiale sono considerati una minaccia per le persone e saranno vietati.<\/p>\n\n\n\n<p><strong>Divieto di riconoscimento delle emozioni tramite IA.<\/strong><\/p>\n\n\n\n<p> Il progetto di testo del Parlamento europeo propone una legge che vieta l&#8217;utilizzo dell&#8217;Intelligenza Artificiale per il riconoscimento delle emozioni in determinati contesti, come ad esempio nelle forze dell&#8217;ordine, nelle istituzioni scolastiche e nei luoghi di lavoro.<\/p>\n\n\n\n<p><strong>La legge vieta l&#8217;utilizzo della tecnologia di identificazione biometrica a distanza in luoghi pubblici<\/strong>, salvo alcune eccezioni specifiche.<\/p>\n\n\n\n<p>Tali eccezioni includono la ricerca di un minore disperso, la prevenzione di una minaccia terroristica specifica e imminente, nonch\u00e9 l&#8217;individuazione, la localizzazione, l&#8217;identificazione o la persecuzione di un autore o un sospetto di un reato grave.<\/p>\n\n\n\n<p>Leggi anche Diritto Rovescio &#8211;<br><a href=\"https:\/\/www.linkedin.com\/posts\/alberto-bozzo-57982b63_dirittorovescio-caffedelmattino-elawyer-activity-7108328597626511362-PWig?utm_source=share&amp;utm_medium=member_desktop\"><strong>Giove &#8211; La polizia predittiva che non ha previsto l&#8217;AI ACT?<\/strong><\/a><\/p>\n\n\n\n<p>L&#8217;impiego dell&#8217;intelligenza artificiale per la rilevazione e l&#8217;analisi facciale ha ricevuto critiche in passato a causa della sua imprecisione e dei pregiudizi. Tuttavia, la bozza del testo delle altre due istituzioni non ha vietato l&#8217;utilizzo di tale tecnologia.<\/p>\n\n\n\n<p>La decisione di applicare o meno il divieto nella legge rappresenter\u00e0 una grande battaglia legislativa tra i vari organi dell&#8217;UE.<\/p>\n\n\n\n<p>Tuttavia, l&#8217;uso di questa tecnologia richiede l&#8217;autorizzazione di un organo giudiziario o di un altro organo indipendente e deve essere limitato nel tempo, nella portata geografica e nelle banche dati consultate.<\/p>\n\n\n\n<p>I sistemi di intelligenza artificiale possono essere considerati a rischio inaccettabile e quindi vietati, quando rappresentano una minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone.<\/p>\n\n\n\n<p>In particolare, facciamo riferimento a:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Punteggio sociale: classificazione delle persone in base al comportamento, allo stato socioeconomico o alle caratteristiche personali<\/li>\n\n\n\n<li>Sistemi di identificazione biometrica in tempo reale e remota, come il riconoscimento facciale<\/li>\n\n\n\n<li>Sistemi di intelligenza artificiale che utilizzano tecniche subliminali o tecniche manipolative o ingannevoli per distorcere il comportamento;<\/li>\n\n\n\n<li>Sistemi di intelligenza artificiale che sfruttano le vulnerabilit\u00e0 di individui o gruppi specifici;<\/li>\n\n\n\n<li>Sistemi di categorizzazione biometrica basati su attributi o caratteristiche sensibili;<\/li>\n\n\n\n<li>Sistemi di IA utilizzati per la valutazione del rischio che prevedono reati penali o amministrativi;<\/li>\n\n\n\n<li>Sistemi di intelligenza artificiale che creano o espandono database di riconoscimento facciale attraverso&nbsp;<em style=\"background-color: initial\">web scraping&nbsp;<\/em>non mirato;<\/li>\n\n\n\n<li>Sistemi di intelligenza artificiale che deducono le emozioni nelle forze dell&#8217;ordine, nella gestione delle frontiere, sul posto di lavoro e nell&#8217;istruzione.<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading alignwide has-text-align-center has-pale-pink-background-color has-background has-medium-font-size\">Alto rischio<\/h3>\n\n\n\n<p>I sistemi di intelligenza artificiale che rappresentano una minaccia per la sicurezza o i diritti fondamentali saranno considerati ad alto rischio.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<p>L\u2019alto rischio corrisponde a un&nbsp;\u201crischio significativo\u201d di danno alla salute, alla sicurezza o ai diritti fondamentali, inteso come&nbsp;<em>\u201crisultato della combinazione della sua gravit\u00e0, intensit\u00e0, probabilit\u00e0 di accadimento e durata dei suoi effetti e la capacit\u00e0 di colpire un individuo, una pluralit\u00e0 di persone o un particolare gruppo di persone\u201d<\/em><\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><strong>La salute umana \u00e8 strettamente correlata all&#8217;ambiente <\/strong>circostante, pertanto \u00e8 importante considerare anche le infrastrutture critiche come le reti energetiche o i sistemi di gestione dell&#8217;acqua. Per garantire la protezione dell&#8217;ambiente, i sistemi basati sull&#8217;intelligenza artificiale devono rispettare gli standard ambientali europei e gli standard di impronta ecologica.<\/p>\n\n\n\n<p><strong>Divieto di Social Scoring:<\/strong> Il sistema di credito sociale, che prevede l&#8217;assegnazione di un punteggio alle persone in base al loro comportamento, non pu\u00f2 essere utilizzato dalle agenzie pubbliche per effettuare generalizzazioni o profilazioni. Tale pratica \u00e8 vietata per legge.<\/p>\n\n\n\n<p>Il Parlamento europeo ha adottato nuove restrizioni per i sistemi di intelligenza artificiale che potrebbero influenzare gli elettori e l&#8217;esito delle elezioni.<\/p>\n\n\n\n<p>Queste restrizioni si applicano anche agli algoritmi di raccomandazione utilizzati sui social media e altre piattaforme digitali. I sistemi di intelligenza artificiale che rientrano in questa categoria saranno considerati a rischio elevato e saranno sottoposti a controlli pi\u00f9 rigorosi per garantire la loro trasparenza e responsabilit\u00e0.<\/p>\n\n\n\n<p>Di seguito sono elencati i sistemi di intelligenza artificiale identificati come &#8220;ad alto rischio&#8221; utilizzati in diversi contesti:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>infrastrutture critiche (ad esempio i trasporti), che potrebbero mettere a rischio la vita e la salute dei cittadini;<\/li>\n\n\n\n<li>formazione educativa o professionale, che pu\u00f2 determinare l&#8217;accesso all&#8217;istruzione e al corso professionale della vita di qualcuno (ad esempio il punteggio degli esami);<\/li>\n\n\n\n<li>componenti di sicurezza dei prodotti (ad es. AI nella chirurgia assistita da robot);<\/li>\n\n\n\n<li>occupazione, gestione dei lavoratori e accesso al lavoro autonomo (ad esempio software di selezione dei Curriculum Vitae per le procedure di assunzione);<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li>servizi privati e pubblici essenziali (ad esempio, l\u2019utilizzo del sistema di&nbsp;<em style=\"background-color: initial\">credit scoring<\/em>&nbsp;&#8211; misura quantitativa sintetica che riguarda l\u2019affidabilit\u00e0 creditizia di un determinato soggetto &#8211; che pu\u00f2 negare ai cittadini la possibilit\u00e0 di ottenere un prestito);<\/li>\n\n\n\n<li>applicazione della legge che pu\u00f2 interferire con i diritti fondamentali dei cittadini;<\/li>\n\n\n\n<li>gestione della migrazione, dell&#8217;asilo e del controllo delle frontiere (ad esempio, la verifica dell&#8217;autenticit\u00e0 dei documenti di viaggio);<\/li>\n\n\n\n<li>amministrazione della giustizia e processi democratici.<\/li>\n<\/ul>\n\n\n\n<p>Tutti i sistemi di identificazione biometrica remota sono considerati ad alto rischio e sono soggetti a severi requisiti.<\/p>\n\n\n\n<p>In base alle nuove regole dell&#8217;Unione Europea, i sistemi di Intelligenza Artificiale (IA) ad alto rischio, come quelli utilizzati in ambito sanitario o per il controllo dei veicoli autonomi, dovranno rispettare obblighi rigorosi prima di essere immessi sul mercato.<\/p>\n\n\n\n<p>Tali obblighi includono la presenza di un adeguato sistema di valutazione e mitigazione dei rischi, l&#8217;offerta di informazioni chiare e complete all&#8217;utente, la disponibilit\u00e0 di documentazione dettagliata che fornisca tutte le informazioni necessarie sul sistema e sul suo scopo, in modo che le autorit\u00e0 possano valutarne la conformit\u00e0, oltre alla registrazione delle attivit\u00e0 al fine di garantirne la tracciabilit\u00e0 dei risultati.<\/p>\n\n\n\n<p>Tutti i sistemi di IA ad alto rischio saranno valutati prima di essere immessi sul mercato e anche durante tutto il loro ciclo di vita.<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>adeguati sistemi di valutazione e mitigazione dei rischi;<\/li>\n\n\n\n<li>elevata qualit\u00e0 delle serie di dati che alimentano il sistema per ridurre al minimo i rischi e i risultati discriminatori;<\/li>\n\n\n\n<li>registrazione dell&#8217;attivit\u00e0 per garantire la tracciabilit\u00e0 dei risultati;<\/li>\n\n\n\n<li>documentazione dettagliata che fornisca tutte le informazioni necessarie sul sistema e sul suo scopo per le autorit\u00e0 di valutarne la conformit\u00e0;<\/li>\n\n\n\n<li>informazioni chiare e adeguate all&#8217;utente;<\/li>\n\n\n\n<li>adeguate misure di sorveglianza umana per ridurre al minimo il rischio;<\/li>\n\n\n\n<li>elevato livello di robustezza, sicurezza e precisione.<\/li>\n<\/ul>\n\n\n\n<p>L&#8217;articolo 10 dell&#8217;AI Act stabilisce che i fornitori di sistemi di Intelligenza Artificiale ad alto rischio, che utilizzano tecniche basate sui dati per addestrare i modelli, possono trattare solo le categorie di dati personali strettamente necessarie per garantire il monitoraggio, il rilevamento e la correzione delle distorsioni.<\/p>\n\n\n\n<p>Questa restrizione mira a proteggere la privacy degli individui e a garantire che i fornitori di sistemi di IA adottino misure adeguate per gestire i dati personali sensibili.<\/p>\n\n\n\n<h3 class=\"wp-block-heading has-text-align-center\">IA generativa<\/h3>\n\n\n\n<p>L\u2019intelligenza artificiale generativa, come ChatGPT, dovrebbe rispettare i requisiti di trasparenza:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li>Divulgare che il contenuto \u00e8 stato generato dall&#8217;intelligenza artificiale<\/li>\n\n\n\n<li>Progettare il modello per evitare che generi contenuti illegali<\/li>\n\n\n\n<li>Pubblicazione di riepiloghi dei dati protetti da copyright utilizzati per la formazione<\/li>\n\n\n\n<li>i modelli di Intelligenza Artificiale generativa, come ChatGPT di OpenAI e Bard di Google, potranno operare a condizione che i loro risultati siano chiaramente identificati come generati dall&#8217;IA<\/li>\n<\/ol>\n\n\n\n<p class=\"has-text-align-center has-vivid-purple-background-color has-background has-medium-font-size\"><strong>Rischio limitato<\/strong><\/p>\n\n\n\n<p>I sistemi di Intelligenza Artificiale a rischio limitato sono stati progettati per ridurre al minimo i rischi per gli utenti.<\/p>\n\n\n\n<p>Tuttavia, \u00e8 importante che questi sistemi rispettino determinati requisiti di trasparenza, in modo che gli utenti possano prendere decisioni informate dopo aver interagito con le applicazioni.<\/p>\n\n\n\n<p>Quando si utilizzano sistemi di intelligenza artificiale, come i chatbot, \u00e8 importante che gli utenti siano informati di interagire con una macchina. In questo modo, possono decidere in modo consapevole se continuare o interrompere l&#8217;interazione.<\/p>\n\n\n\n<p>\u00c8 fondamentale informare gli utenti quando interagiscono con l&#8217;IA, compresi i sistemi che generano o manipolano contenuti di immagini, audio o video, come ad esempio i deepfake.<\/p>\n\n\n\n<p>Tutto ci\u00f2 che include applicazioni come videogiochi abilitati all&#8217;intelligenza artificiale o filtri antispam rientra nella categoria a basso rischio.<\/p>\n\n\n\n<p class=\"has-text-align-center has-light-green-cyan-background-color has-background has-medium-font-size\"><strong>Rischio minimo o nullo<\/strong><\/p>\n\n\n\n<p>La proposta suggerisce l&#8217;utilizzo di sistemi di Intelligenza Artificiale a basso rischio, come ad esempio videogiochi dotati di intelligenza artificiale o filtri antispam.<\/p>\n\n\n\n<p>Questi sistemi sono gi\u00e0 ampiamente utilizzati nell&#8217;Unione Europea e rappresentano una soluzione accessibile per molte aziende e sviluppatori.<\/p>\n\n\n\n<p><em>La regolamentazione varier\u00e0 in base al livello di rischio associato.<\/em><\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/image-1.png\" alt=\"\" \/><\/figure>\n\n\n\n<p>Una volta che un sistema di intelligenza artificiale (IA) viene commercializzato, \u00e8 importante che le autorit\u00e0 garantiscano la sicurezza e l&#8217;efficacia del prodotto attraverso la vigilanza del mercato.<\/p>\n\n\n\n<p>Per prevenire eventuali problemi e malfunzionamenti, gli utenti del sistema sono tenuti a fornire una sorveglianza umana costante.<\/p>\n\n\n\n<p>Inoltre, i fornitori del sistema sono obbligati a mettere a disposizione un sistema di monitoraggio post-commercializzazione per rilevare eventuali malfunzionamenti o incidenti gravi. Nel caso in cui si verifichino problemi, sia i fornitori che gli utenti devono segnalare immediatamente gli incidenti alle autorit\u00e0 competenti.<\/p>\n\n\n\n<h1 class=\"wp-block-heading has-text-align-center has-medium-font-size\">I prossimi passi <\/h1>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter\"><img decoding=\"async\" src=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/istockphoto-1223789411-612x612-1.jpg\" alt=\"\" \/><\/figure>\n<\/div>\n\n\n<p>Una volta presentata la proposta di legge, si daranno inizio ai colloqui con gli Stati membri dell&#8217;UE all&#8217;interno del Consiglio per discutere e definire la versione finale della legge.<\/p>\n\n\n\n<p>L&#8217;obiettivo \u00e8 quello di raggiungere un accordo entro la fine dell&#8217;anno in modo da garantire una soluzione tempestiva e soddisfacente per tutte le parti coinvolte. L&#8217;approccio comune e condiviso in Europa su questo tema \u00e8 fondamentale per una gestione efficace e coordinata della questione.<\/p>\n\n\n\n<p><em>&#8216;Europa avanza sulla regolamentazione dell&#8217;IA, compiendo&nbsp;un passo fondamentale verso l&#8217;approvazione di restrizioni storiche dell&#8217;Intelligenza Artificiale.<\/em><\/p>\n\n\n\n<p>I negoziati trilaterali per il testo finale sono attualmente in corso di perfezionamento.<\/p>\n\n\n\n<p> Si prevede che tali negoziati saranno completati entro la fine dell&#8217;anno, con l&#8217;obiettivo di approvare la legge prima delle elezioni del Parlamento europeo nel giugno 2024.<\/p>\n\n\n\n<h1 class=\"wp-block-heading has-text-align-center has-medium-font-size\"><strong>L\u2019istituzione di un comitato europeo per l\u2019intelligenza artificiale&nbsp;<\/strong>e la scelta su chi nominare a livello nazionale<\/h1>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter\"><img decoding=\"async\" src=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/istockphoto-1361354597-612x612-1.jpg\" alt=\"\" \/><\/figure>\n<\/div>\n\n\n<p>In vista dell&#8217;entrata in vigore definitiva del (AI ACT), gli Stati membri dell&#8217;Unione Europea dovranno designare un&#8217;autorit\u00e0 nazionale responsabile della supervisione dell&#8217;applicazione del Regolamento.<\/p>\n\n\n\n<p>Ci sono motivazioni sostanziali e organizzative che giustificano la nomina del Garante privacy come tale autorit\u00e0.<\/p>\n\n\n\n<p>Gli Stati membri dell&#8217;UE si trovano di fronte ad una decisione cruciale<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>creare un&#8217;autorit\u00e0 di controllo specifica <\/li>\n\n\n\n<li> affidare le funzioni e le responsabilit\u00e0 a un ente gi\u00e0 esistente.<\/li>\n<\/ul>\n\n\n\n<p>Se necessario per ragioni organizzative e amministrative, uno Stato pu\u00f2 nominare pi\u00f9 di un&#8217;autorit\u00e0 per il controllo di un determinato settore. <\/p>\n\n\n\n<p>\u00c8 possibile assegnare la funzione di controllo ad un&#8217;autorit\u00e0 indipendente esistente a patto che abbia le competenze necessarie.<\/p>\n\n\n\n<p><strong>In base all&#8217;articolo 59 dell&#8217;AI Act,<\/strong> \u00e8 richiesto che le autorit\u00e0 nazionali competenti dispongano di personale adeguato e permanentemente disponibile, dotato di competenze e conoscenze adeguate che comprendano una conoscenza approfondita delle tecnologie, dei dati e del calcolo dei dati di intelligenza artificiale. <\/p>\n\n\n\n<p>Tale personale dovrebbe essere in grado di comprendere i diritti fondamentali, i rischi per la salute e la sicurezza e le norme e i requisiti giuridici esistenti.<\/p>\n\n\n\n<p>A livello nazionale, ogni Stato membro dell&#8217;Unione Europea dovr\u00e0 nominare una o pi\u00f9 autorit\u00e0 nazionali competenti per la regolamentazione dell&#8217;intelligenza artificiale.<\/p>\n\n\n\n<p>Questo permetter\u00e0 di garantire l&#8217;efficacia e la sicurezza dei sistemi di intelligenza artificiale utilizzati in Europa.<\/p>\n\n\n\n<p>A livello dell&#8217;Unione Europea, il Regolamento sull&#8217;Intelligenza Artificiale prevede la creazione di un Comitato Europeo per l&#8217;Intelligenza Artificiale.<\/p>\n\n\n\n<p>Il comitato presieduto dalla Commissione UE e composto dai rappresentanti degli Stati e dal Garante Europeo della Protezione dei Dati, ha il compito di <\/p>\n\n\n\n<p>agevolare l&#8217;attuazione uniforme del Regolamento sull&#8217;Intelligenza Artificiale<\/p>\n\n\n\n<p> promuovere la cooperazione tra le autorit\u00e0 nazionali di controllo e la Commissione UE<\/p>\n\n\n\n<p>fornire consulenza alla Commissione UE per garantire una regolamentazione efficace e agevole dell&#8217;Intelligenza Artificiale nell&#8217;ambito dell&#8217;UE<\/p>\n\n\n\n<p>tutelare i diritti dei cittadini europei in materia di protezione dei dati.<\/p>\n\n\n\n<h1 class=\"wp-block-heading alignwide has-text-align-center has-medium-font-size\">E in Italia?<\/h1>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter is-resized\"><img decoding=\"async\" src=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Firefly-commisione-con-la-bandiera-italiana-che-studia-lintelligenza-artificiale-99043-1024x1024.jpg\" alt=\"\" style=\"aspect-ratio:1;width:362px;height:auto\" \/><\/figure>\n<\/div>\n\n\n<p>In passato, nel 2005, l&#8217;Autorit\u00e0 Garante della Concorrenza e del Mercato \u00e8 stata scelta come l&#8217;autorit\u00e0 competente per l&#8217;applicazione della normativa sulle pratiche commerciali scorrette verso i consumatori.<\/p>\n\n\n\n<p>Di recente, poche settimane fa, \u00e8 stata selezionata l&#8217;Autorit\u00e0 per le Garanzie nelle Comunicazioni come l&#8217;autorit\u00e0 competente per l&#8217;applicazione del DSA, il Digital Services Act.Ora che il processo di approvazione dell&#8217;AI Act \u00e8 in fase avanzata, l&#8217;Italia deve decidere se creare un&#8217;autorit\u00e0 di controllo specifica per l&#8217;AI o affidare le sue funzioni e responsabilit\u00e0 ad un&#8217;autorit\u00e0 indipendente gi\u00e0 esistente.<\/p>\n\n\n\n<p>In passato, nel 2005, l&#8217;Autorit\u00e0 Garante della Concorrenza e del Mercato \u00e8 stata scelta come l&#8217;autorit\u00e0 competente per l&#8217;applicazione della normativa sulle pratiche commerciali scorrette verso i consumatori.<\/p>\n\n\n\n<p>Di recente, poche settimane fa, \u00e8 stata invece selezionata l&#8217;Autorit\u00e0 per le Garanzie nelle Comunicazioni come l&#8217;autorit\u00e0 competente per l&#8217;applicazione del DSA, il Digital Services Act.<\/p>\n\n\n\n<p>Il Comitato europeo per la protezione dei dati (EDPB) e il Garante europeo della protezione dei dati (GEPD) hanno pubblicato <strong><a href=\"https:\/\/edpb.europa.eu\/system\/files\/2021-10\/edpb-edps_joint_opinion_ai_regulation_it.pdf\">il parere congiunto 5\/2021<\/a><\/strong>, che si concentra sulla protezione dei dati personali nell&#8217;utilizzo di sistemi di intelligenza artificiale. <\/p>\n\n\n\n<p>Il parere raccomanda che le autorit\u00e0 nazionali competenti per la protezione dei dati siano incaricate delle funzioni e delle responsabilit\u00e0 di autorit\u00e0 di controllo per garantire l&#8217;efficace attuazione del Regolamento generale sulla protezione dei dati (GDPR) nel contesto dell&#8217;intelligenza artificiale. <\/p>\n\n\n\n<p>Inoltre, il parere sottolinea che le disposizioni dell&#8217;AI Act sono strettamente collegate al quadro giuridico di protezione dei dati quando si tratta di utilizzo di sistemi di intelligenza artificiale che comportano il trattamento di dati personali.<\/p>\n\n\n\n<p>La designazione delle autorit\u00e0 per la protezione dei dati come autorit\u00e0 nazionali di controllo aiuterebbe a garantire un&#8217;armonizzazione normativa tra gli Stati membri dell&#8217;Unione Europea e una corretta interpretazione delle disposizioni sulla gestione dei dati.<\/p>\n\n\n\n<p>Ci\u00f2 impedirebbe contraddizioni nella loro applicazione tra i vari Stati membri.<\/p>\n\n\n\n<p>Inoltre, \u00e8 importante notare che alcuni Stati membri dell&#8217;Unione Europea, come la Francia, stanno esplorando diverse idee per la regolamentazione dell&#8217;Intelligenza Artificiale (IA).<\/p>\n\n\n\n<p>Ad esempio, il Consiglio di Stato francese ha pubblicato uno studio nel 2022 che raccomanda una profonda trasformazione del CNIL (l&#8217;autorit\u00e0 nazionale di controllo per la protezione dei dati personali) in un organo con poteri di regolamentazione e sorveglianza anche sui sistemi di IA, in particolare quelli pubblici.<\/p>\n\n\n\n<p><a href=\"https:\/\/www.linkedin.com\/pulse\/il-regolamento-tarda-ad-arrivare-nel-frattempo-ci-pensano-bozzo-hj31f\/?trackingId=9u2VasZMTSykIkvcfJGnWQ%3D%3D\"><strong>Ne abbiamo parlato qui <\/strong><\/a><\/p>\n\n\n\n<p><em>Dirittorovescio l regolamento tarda ad arrivare. nel frattempo ci pensano le singole autorit\u00e0 nazionali &#8211; il caso francese (cnil)<\/em><\/p>\n\n\n\n<p>A un livello sostanziale, la protezione dei dati personali e la disciplina dell&#8217;intelligenza artificiale sono strettamente interconnesse in quanto entrambe sono orientate al mercato unico digitale e pongono la persona al centro della regolamentazione, garantendo i suoi diritti personali e la sua dignit\u00e0. Il regolamento sulla protezione dei dati personali riveste un ruolo centrale nell&#8217;AI Act, il quale riconosce l&#8217;importanza di una regolamentazione efficace per l&#8217;utilizzo responsabile dell&#8217;intelligenza artificiale. Ci\u00f2 dimostra l&#8217;impegno dell&#8217;UE per la tutela dei diritti fondamentali dei cittadini nell&#8217;era digitale.<\/p>\n\n\n\n<p>In base all&#8217;articolo 53 dell&#8217;AI Act, gli Stati membri devono garantire il coinvolgimento delle autorit\u00e0 nazionali per la protezione dei dati e delle altre autorit\u00e0 competenti nello spazio di sperimentazione normativa per l&#8217;IA, qualora i sistemi di IA innovativi prevedano il trattamento di dati personali o rientrino nell&#8217;ambito di competenza di tali autorit\u00e0.<\/p>\n\n\n\n<p>Tale coinvolgimento ha lo scopo di assicurare la tutela dei dati personali e il rispetto delle normative nazionali e internazionali in materia di IA.<\/p>\n\n\n\n<p>Il Partito Democratico ha presentato una proposta di legge, con il primo firmatario Antonio Nicita, che prevede l&#8217;obbligo di etichettatura per i contenuti generati da intelligenza artificiale.<\/p>\n\n\n\n<p>Questa proposta \u00e8 motivata dal fatto che sempre pi\u00f9 contenuti audiovisivi ed editoriali sono generati dall&#8217;AI e che \u00e8 importante segnalare ci\u00f2 a chi ne usufruisce per prevenire possibili manipolazioni dell&#8217;informazione o violazioni del diritto d&#8217;autore. Il disegno di legge, denominato &#8220;<strong>Disegno di legge sulla trasparenza dei contenuti generati da intelligenza artificiale<\/strong>&#8220;, mira a garantire la trasparenza dei contenuti generati dall&#8217;AI e a proteggere i diritti degli autori.<\/p>\n\n\n\n<p>I &#8220;deep fake&#8221; sono contenuti audio, immagini o video manipolati o sintetizzati in modo da sembrare autentici o veritieri, ma che in realt\u00e0 sono falsi. Questi contenuti utilizzano tecniche di intelligenza artificiale, come l&#8217;apprendimento automatico (machine learning) e l&#8217;apprendimento profondo (deep machine learning), come descritto nella proposta.<\/p>\n\n\n\n<p>La proposta di legge prevede l&#8217;obbligo per i soggetti responsabili della pubblicazione e diffusione dei contenuti generati da intelligenza artificiale di garantire una riconoscibilit\u00e0 immediata agli utenti.<\/p>\n\n\n\n<p>\u00c8 stato proposto di introdurre un&#8217;etichettatura chiara e univoca per i contenuti generati da intelligenza artificiale. L&#8217;etichetta suggerita \u00e8 &#8220;AI made\/prodotto da intelligenza artificiale&#8221;.<\/p>\n\n\n\n<p>L&#8217;Autorit\u00e0 per le garanzie nelle comunicazioni (Agcom) definir\u00e0 i dettagli dell&#8217;etichettatura attraverso un proprio Regolamento, che sar\u00e0 pubblicato entro 60 giorni dall&#8217;approvazione della legge. L&#8217;Agcom avr\u00e0 il compito di monitorare e far rispettare le disposizioni della legge, segnalando e rimuovendo i contenuti pubblicati e diffusi in violazione di queste disposizioni e infliggendo sanzioni proporzionate alla gravit\u00e0 della violazione.<\/p>\n\n\n\n<p>La Presidenza del Consiglio ha istituito una Commissione di indagine sulla possibile perdita di posti di lavoro correlata all&#8217;adozione di algoritmi di intelligenza artificiale.<\/p>\n\n\n\n<p>La Commissione, presieduta da Giuliano Amato, avr\u00e0 il compito di esaminare il fenomeno e redigere un rapporto per valutare quanti posti di lavoro sono a rischio, ad esempio nel settore dell&#8217;editoria e del giornalismo. Il governo potr\u00e0 adottare contromisure a seguito del rapporto per prevenire la perdita di posti di lavoro.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/IL-CAFFE-DEL-MATTINO--1024x576.jpg\" alt=\"\" \/><\/figure>\n","protected":false},"excerpt":{"rendered":"<p>Un lungo e complicato percorso Il 14 giugno 2023, il Parlamento europeo ha approvato l&#8217;Artificial Intelligence Act, un regolamento che regola l&#8217;uso dell&#8217;intelligenza artificiale nell&#8217;Unione Europea. La legge prevede norme specifiche per la protezione dei diritti fondamentali, la trasparenza e la responsabilit\u00e0 nell&#8217;utilizzo dell&#8217;IA. L&#8217;UE regolamenta l&#8217;Intelligenza Artificiale per garantire lo sviluppo e l&#8217;utilizzo ottimali. [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":3265,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[44,1],"tags":[58,61,59,57,60],"class_list":["post-3231","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-diritto-rovescio","category-non-categorizzato","tag-aiact","tag-europa","tag-gdpr","tag-intelligenzaartificiale","tag-privacy"],"yoast_head":"<!-- This site is optimized with the Yoast SEO Premium plugin v23.3 (Yoast SEO v25.6) - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Dirittorovescio: AI ACT - a che punto siamo - PB Consulting<\/title>\n<meta name=\"description\" content=\"L&#039;Artificial Intelligence Act regolamenta l&#039;uso dell&#039;Intelligenza Artificiale a livello mondiale. Una panoramica dello stato dell&#039;arte e dei prossimi passi, con uno sguardo anche all&#039;Italia. PB Consulting\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-a-che-punto-siamo\/\" \/>\n<meta property=\"og:locale\" content=\"en_US\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Dirittorovescio: AI ACT - a che punto siamo\" \/>\n<meta property=\"og:description\" content=\"L&#039;Artificial Intelligence Act regolamenta l&#039;uso dell&#039;Intelligenza Artificiale a livello mondiale. Una panoramica dello stato dell&#039;arte e dei prossimi passi, con uno sguardo anche all&#039;Italia. PB Consulting\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-a-che-punto-siamo\/\" \/>\n<meta property=\"og:site_name\" content=\"PB Consulting\" \/>\n<meta property=\"article:author\" content=\"https:\/\/www.facebook.com\/alberto.bozzo.9\" \/>\n<meta property=\"article:published_time\" content=\"2023-10-22T08:55:41+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2023-10-22T08:55:43+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Firefly-parlamento-europeo-che-studia-lintelligenza-artificiale-9651.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"2048\" \/>\n\t<meta property=\"og:image:height\" content=\"2048\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Alberto Bozzo\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Alberto Bozzo\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"21 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-a-che-punto-siamo\/\",\"url\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-a-che-punto-siamo\/\",\"name\":\"Dirittorovescio: AI ACT - a che punto siamo - PB Consulting\",\"isPartOf\":{\"@id\":\"https:\/\/www.consultingpb.com\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-a-che-punto-siamo\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-a-che-punto-siamo\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Firefly-parlamento-europeo-che-studia-lintelligenza-artificiale-9651.jpg\",\"datePublished\":\"2023-10-22T08:55:41+00:00\",\"dateModified\":\"2023-10-22T08:55:43+00:00\",\"author\":{\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50\"},\"description\":\"L'Artificial Intelligence Act regolamenta l'uso dell'Intelligenza Artificiale a livello mondiale. Una panoramica dello stato dell'arte e dei prossimi passi, con uno sguardo anche all'Italia. PB Consulting\",\"breadcrumb\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-a-che-punto-siamo\/#breadcrumb\"},\"inLanguage\":\"en-US\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-a-che-punto-siamo\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-a-che-punto-siamo\/#primaryimage\",\"url\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Firefly-parlamento-europeo-che-studia-lintelligenza-artificiale-9651.jpg\",\"contentUrl\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Firefly-parlamento-europeo-che-studia-lintelligenza-artificiale-9651.jpg\",\"width\":2048,\"height\":2048},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-a-che-punto-siamo\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/www.consultingpb.com\/en\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Dirittorovescio: AI ACT &#8211; a che punto siamo\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/www.consultingpb.com\/#website\",\"url\":\"https:\/\/www.consultingpb.com\/\",\"name\":\"PB Consulting\",\"description\":\"\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/www.consultingpb.com\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"en-US\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50\",\"name\":\"Alberto Bozzo\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g\",\"caption\":\"Alberto Bozzo\"},\"sameAs\":[\"https:\/\/www.consultingpb.com\/\",\"https:\/\/www.facebook.com\/alberto.bozzo.9\",\"https:\/\/www.instagram.com\/ab_dirittorovescio\/\",\"https:\/\/www.linkedin.com\/in\/alberto-bozzo-57982b63\/\"],\"url\":\"https:\/\/www.consultingpb.com\/en\/blog\/author\/alberto\/\"}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"Dirittorovescio: AI ACT - a che punto siamo - PB Consulting","description":"L'Artificial Intelligence Act regolamenta l'uso dell'Intelligenza Artificiale a livello mondiale. Una panoramica dello stato dell'arte e dei prossimi passi, con uno sguardo anche all'Italia. PB Consulting","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-a-che-punto-siamo\/","og_locale":"en_US","og_type":"article","og_title":"Dirittorovescio: AI ACT - a che punto siamo","og_description":"L'Artificial Intelligence Act regolamenta l'uso dell'Intelligenza Artificiale a livello mondiale. Una panoramica dello stato dell'arte e dei prossimi passi, con uno sguardo anche all'Italia. PB Consulting","og_url":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-a-che-punto-siamo\/","og_site_name":"PB Consulting","article_author":"https:\/\/www.facebook.com\/alberto.bozzo.9","article_published_time":"2023-10-22T08:55:41+00:00","article_modified_time":"2023-10-22T08:55:43+00:00","og_image":[{"width":2048,"height":2048,"url":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Firefly-parlamento-europeo-che-studia-lintelligenza-artificiale-9651.jpg","type":"image\/jpeg"}],"author":"Alberto Bozzo","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Alberto Bozzo","Est. reading time":"21 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-a-che-punto-siamo\/","url":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-a-che-punto-siamo\/","name":"Dirittorovescio: AI ACT - a che punto siamo - PB Consulting","isPartOf":{"@id":"https:\/\/www.consultingpb.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-a-che-punto-siamo\/#primaryimage"},"image":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-a-che-punto-siamo\/#primaryimage"},"thumbnailUrl":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Firefly-parlamento-europeo-che-studia-lintelligenza-artificiale-9651.jpg","datePublished":"2023-10-22T08:55:41+00:00","dateModified":"2023-10-22T08:55:43+00:00","author":{"@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50"},"description":"L'Artificial Intelligence Act regolamenta l'uso dell'Intelligenza Artificiale a livello mondiale. Una panoramica dello stato dell'arte e dei prossimi passi, con uno sguardo anche all'Italia. PB Consulting","breadcrumb":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-a-che-punto-siamo\/#breadcrumb"},"inLanguage":"en-US","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-a-che-punto-siamo\/"]}]},{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-a-che-punto-siamo\/#primaryimage","url":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Firefly-parlamento-europeo-che-studia-lintelligenza-artificiale-9651.jpg","contentUrl":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Firefly-parlamento-europeo-che-studia-lintelligenza-artificiale-9651.jpg","width":2048,"height":2048},{"@type":"BreadcrumbList","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-a-che-punto-siamo\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/www.consultingpb.com\/en\/"},{"@type":"ListItem","position":2,"name":"Dirittorovescio: AI ACT &#8211; a che punto siamo"}]},{"@type":"WebSite","@id":"https:\/\/www.consultingpb.com\/#website","url":"https:\/\/www.consultingpb.com\/","name":"PB Consulting","description":"","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.consultingpb.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"en-US"},{"@type":"Person","@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50","name":"Alberto Bozzo","image":{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g","caption":"Alberto Bozzo"},"sameAs":["https:\/\/www.consultingpb.com\/","https:\/\/www.facebook.com\/alberto.bozzo.9","https:\/\/www.instagram.com\/ab_dirittorovescio\/","https:\/\/www.linkedin.com\/in\/alberto-bozzo-57982b63\/"],"url":"https:\/\/www.consultingpb.com\/en\/blog\/author\/alberto\/"}]}},"_links":{"self":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/3231","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/comments?post=3231"}],"version-history":[{"count":21,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/3231\/revisions"}],"predecessor-version":[{"id":3279,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/3231\/revisions\/3279"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/media\/3265"}],"wp:attachment":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/media?parent=3231"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/categories?post=3231"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/tags?post=3231"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}