{"id":4732,"date":"2023-12-03T20:51:52","date_gmt":"2023-12-03T20:51:52","guid":{"rendered":"https:\/\/www.consultingpb.com\/?p=4732"},"modified":"2023-12-03T20:51:55","modified_gmt":"2023-12-03T20:51:55","slug":"ai-act-esserci-o-non-esserci","status":"publish","type":"post","link":"https:\/\/www.consultingpb.com\/en\/blog\/diritto-rovescio\/ai-act-esserci-o-non-esserci\/","title":{"rendered":"AI ACT: esserci o non esserci ?"},"content":{"rendered":"\n<h3 class=\"wp-block-heading\" id=\"h-l-alba-di-una-nuova-era-normativa-per-l-ia\"><strong>L&#8217;Alba di una Nuova Era Normativa per l&#8217;IA<\/strong>\u00a0<\/h3>\n\n\n\n<p>L&#8217;Unione Europea sta per adottare una legislazione all&#8217;avanguardia che avr\u00e0 un impatto significativo sul futuro dell&#8217;<strong>intelligenza artificiale <\/strong>(IA).\u00a0<\/p>\n\n\n\n<p>&nbsp;Questa legge, la prima del suo genere a livello mondiale, si trova attualmente nella fase finale delle negoziazioni e mira a stabilire un quadro normativo per i modelli di IA pi\u00f9 avanzati e le relative applicazioni legali.&nbsp;<\/p>\n\n\n\n<p>Con l&#8217;approvazione imminente dell&#8217;Artificial Intelligence Act, l&#8217;Unione Europea sta delineando il percorso <strong>dell&#8217;intelligenza<\/strong> <strong>artificiale<\/strong>, suscitando grande attesa tra gli esperti del settore. La legge, che si concentra sulla capacit\u00e0 dell&#8217;IA di causare danni, rappresenta un importante punto di riferimento nella regolamentazione <strong>dell&#8217;intelligenza<\/strong> <strong>artificiale<\/strong>.\u00a0<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-nuovi-sviluppi-nell-unione-europea-paesi-membri-contrari-alla-regolamentazione-dei-modelli-di-fondazione\"><strong>Nuovi Sviluppi nell&#8217;Unione Europea: Paesi Membri Contrari alla Regolamentazione dei Modelli di Fondazione<\/strong><\/h3>\n\n\n\n<p>In una svolta inaspettata durante l&#8217;ultima sessione di trilogo, un evento chiave per la negoziazione legislativa nell&#8217;Unione Europea, due stati membri hanno manifestato la volont\u00e0 di ritirare il supporto alla proposta di regolamentazione dei cosiddetti modelli di fondazione. Questo cambio di rotta ha causato l&#8217;interruzione anticipata del dibattito da parte dei delegati del Parlamento Europeo.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-10-11-23\">10.11.23<\/h4>\n\n\n\n<p>La resistenza si \u00e8 fatta sentire con forza nel corso dell&#8217;incontro tecnico del 10 novembre 2023, quando l&#8217;opposizione dei paesi membri ha trovato l&#8217;eco nelle voci contrarie provenienti dal settore industriale. Le imprese temono che l&#8217;introduzione di questa normativa possa rappresentare un freno alla competitivit\u00e0 e all&#8217;innovazione, pilastri fondamentali dell&#8217;economia digitale europea.<\/p>\n\n\n\n<p>Il nocciolo della questione risiede nelle preoccupazioni sulle potenziali nuove regolamentazioni che la legge potrebbe introdurre, le quali, secondo gli oppositori, potrebbero limitare la capacit\u00e0 delle aziende di affrontare con efficacia i rischi unici legati allo sviluppo e all&#8217;uso <strong>dell&#8217;intelligenza<\/strong> <strong>artificiale<\/strong>. Il dibattito resta aperto e il futuro della proposta regolamentare \u00e8 ora pi\u00f9 incerto che mai.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-19-11-23\">19.11.23<\/h4>\n\n\n\n<p>Il 19 novembre, la Commissione europea ha cercato di superare l&#8217;impasse presentando un compromesso che prevede un approccio stratificato alla regolamentazione e l&#8217;introduzione di codici di condotta per i modelli con rischi sistemici. Questa mossa segue la crescente pressione di Francia, Germania e Italia, che temono che le normative possano penalizzare le aziende tecnologiche europee rispetto a quelle americane e cinesi.\u00a0\u00a0<\/p>\n\n\n\n<p>Francia e Germania sono all&#8217;avanguardia nel contrastare l&#8217;attuale bozza del regolamento, sottolineando le potenziali ripercussioni negative sulle aziende nazionali specializzate in <strong>intelligenza<\/strong> <strong>artificiale<\/strong> generativa, come la start-up francese Mistral. Queste preoccupazioni hanno dato vita a nuovi dibattiti su come la legge proposta potrebbe influenzare il settore.\u00a0<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-06-12-23\">06.12.23<\/h4>\n\n\n\n<p>Il 6 dicembre si prospetta come una data potenzialmente decisiva per l&#8217;adozione della prima legislazione globale <strong>sull&#8217;intelligenza<\/strong> <strong>artificiale<\/strong>, con implicazioni che potrebbero riverberarsi ben oltre i confini dell&#8217;Unione Europea. \u00a0<\/p>\n\n\n\n<p>L&#8217;esigenza di giungere a un consenso \u00e8 resa ancora pi\u00f9 pressante dall&#8217;attenzione che l&#8217;UE sta rivolgendo alle iniziative internazionali per la regolamentazione dell&#8217;IA. \u00a0<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-il-difficile-cammino-verso-il-consenso\">Il difficile cammino verso il consenso\u00a0<\/h3>\n\n\n\n<p>Nonostante il silenzio ufficiale, voci e anticipazioni trapelano dai corridoi dell&#8217;UE, suggerendo che il percorso verso un accordo sia tutt&#8217;altro che lineare.\u00a0\u00a0 La prossima sessione del Comitato dei rappresentanti permanenti sar\u00e0 cruciale per delineare le future direttive in materia di tecnologie digitali.\u00a0<\/p>\n\n\n\n<p>Il dibattito si concentra su due pilastri fondamentali:&nbsp;&nbsp;<\/p>\n\n\n\n<ol class=\"wp-block-list\" start=\"1\">\n<li>la protezione della privacy in relazione all&#8217;uso del riconoscimento facciale&nbsp;&nbsp;<\/li>\n<\/ol>\n\n\n\n<ol class=\"wp-block-list\" start=\"2\">\n<li>&nbsp;la gestione dei pericoli inerenti ai modelli di IA avanzati, come quelli proposti da OpenAI.&nbsp;&nbsp;<\/li>\n<\/ol>\n\n\n\n<p>L&#8217;obiettivo \u00e8 quello di promuovere l&#8217;innovazione senza trascurare la sicurezza dei cittadini europei.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-stallo-nella-regolamentazione-ai-tra-autoregolamentazione-e-normative-l-europa-cerca-la-sua-strada\">Stallo nella Regolamentazione AI: Tra Autoregolamentazione e Normative, l&#8217;Europa Cerca la Sua Strada<\/h3>\n\n\n\n<p>La discussione si incaglia sulle modalit\u00e0 di impiego <strong>dell&#8217;intelligenza<\/strong> <strong>artificiale<\/strong> in contesti pubblici e sulla regolamentazione di sistemi complessi come ChatGPT.\u00a0\u00a0<\/p>\n\n\n\n<p>Gli esperti si dividono tra chi sostiene la necessit\u00e0 di una regolamentazione pi\u00f9 stringente e chi propende per un approccio pi\u00f9 lasco, basato sull&#8217;autoregolamentazione.&nbsp;<\/p>\n\n\n\n<p>C\u2019\u00e8 chi valuta positivamente questa eventualit\u00e0 perch\u00e9 sostiene che nel mondo delle tecnologie pi\u00f9 avanzate \u00e8 meglio ridurre al minimo l\u2019azione legislativa, lasciando <strong>all\u2019autoregolamentazione<\/strong> delle aziende il compito di prevenire le conseguenze dell\u2019innovazione.\u00a0<\/p>\n\n\n\n<p>In una recente tornata di negoziati del trilogo europeo, un evento chiave per il dialogo interistituzionale, \u00e8 emerso un inatteso punto di svolta. Due paesi membri hanno manifestato l&#8217;intenzione di abbandonare il sostegno alla proposta di legge per la regolamentazione dei cosiddetti &#8220;modelli di fondazione&#8221;, portando a una chiusura anticipata della sessione da parte dei delegati del Parlamento Europeo.<\/p>\n\n\n\n<p>Il contrasto \u00e8 diventato evidente durante l&#8217;incontro tecnico del 10 novembre 2023, quando l&#8217;opposizione di alcuni stati membri ha trovato alleato nel settore industriale. Le imprese, preoccupate, sostengono che l&#8217;adozione di tali normative potrebbe minare gravemente la competitivit\u00e0 e l&#8217;innovazione, fondamenta per la crescita economica nel settore tecnologico.<\/p>\n\n\n\n<p>Al centro delle preoccupazioni vi \u00e8 il timore che nuove regolamentazioni possano introdurre vincoli eccessivi, compromettendo la capacit\u00e0 delle aziende di gestire efficacemente i rischi associati <strong>all&#8217;intelligenza<\/strong> <strong>artificiale<\/strong>. La situazione attuale getta ombre sul futuro della proposta regolamentare, con un panorama di incertezza che si profila all&#8217;orizzonte per il settore AI in Europa.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-divario-europeo-sulla-regolamentazione-ai-tra-autonomia-e-controllo-il-futuro-e-incerto\">Divario Europeo sulla Regolamentazione AI: tra autonomia e controllo, il futuro \u00e8 Incerto<\/h3>\n\n\n\n<p>In Francia, la start-up Mistral e figure come Cedric O, ex segretario di stato per il digitale, si sono espressi chiaramente contro le attuali disposizioni, evidenziando il rischio di un declino del settore nazionale <strong>dell&#8217;intelligenza<\/strong> <strong>artificiale<\/strong>.\u00a0<\/p>\n\n\n\n<p>\u00a0Questa posizione \u00e8 in linea con quella precedentemente espressa da Guillaume Avrin, coordinatore della strategia nazionale per <strong>l&#8217;intelligenza<\/strong> <strong>artificiale<\/strong>, che favorisce una legislazione incentrata pi\u00f9 sui sistemi che sui singoli modelli.\u00a0<\/p>\n\n\n\n<p>Parallelamente, in Germania, la societ\u00e0 Aleph Alpha, insieme ad altri attori del settore, ha manifestato preoccupazione per la possibilit\u00e0 che le nuove regole europee possano penalizzare le aziende continentali rispetto ai concorrenti internazionali, in particolare quelli statunitensi e cinesi.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-nuova-visione-europea-per-la-regolamentazione-ai-la-svolta-del-compromesso-franco-tedesco-italiano\"><strong>Nuova Visione Europea per la Regolamentazione AI: La Svolta del Compromesso Franco-Tedesco-Italiano<\/strong><\/h4>\n\n\n\n<p>In un clima di intensi dibattiti sulla regolamentazione <strong>dell&#8217;intelligenza<\/strong> <strong>artificiale<\/strong> (IA), un nuovo vento soffia dalle sale negoziali europee. Un accordo emergente, incentrato sull&#8217;auto-regolamentazione dei modelli di IA di base, sta guadagnando terreno come via di mezzo per mitigare i rischi sistemici legati ai cosiddetti large language models.<\/p>\n\n\n\n<p>Le tre potenze economiche dell&#8217;Unione Europea &#8211; Francia, Germania e Italia &#8211; stanno portando avanti una proposta che potrebbe rivelarsi un game changer. Il loro obiettivo \u00e8 duplice: da un lato, assicurare che le imprese del Vecchio Continente rimangano al passo con i giganti tecnologici globali senza essere soffocate da normative eccessivamente restrittive; dall&#8217;altro, garantire che l&#8217;innovazione non vada a discapito della sicurezza e della trasparenza.<\/p>\n\n\n\n<p>Una bozza informale, trapelata da fonti interne alle istituzioni, illustra un quadro regolamentare meno rigido, che punta a un equilibrio tra libert\u00e0 e responsabilit\u00e0. L&#8217;Italia, nonostante non sia un attore chiave nello sviluppo di queste tecnologie avanzate, si \u00e8 schierata a favore di questo approccio, evidenziando il desiderio comune di una posizione unitaria europea.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-nuova-visione-europea-per-la-regolamentazione-ai-la-svolta-del-compromesso-franco-tedesco-italiano-0\"><strong>Nuova Visione Europea per la Regolamentazione AI: La Svolta del Compromesso Franco-Tedesco-Italiano<\/strong><\/h4>\n\n\n\n<p>In un clima di intensi dibattiti sulla regolamentazione <strong>dell&#8217;intelligenza<\/strong> <strong>artificiale<\/strong> (IA), un nuovo vento soffia dalle sale negoziali europee. <\/p>\n\n\n\n<p>Un accordo emergente, incentrato sull&#8217;auto-regolamentazione dei modelli di IA di base, sta guadagnando terreno come via di mezzo per mitigare i rischi sistemici legati ai cosiddetti large language models.<\/p>\n\n\n\n<p>Le tre potenze economiche dell&#8217;Unione Europea &#8211; Francia, Germania e Italia &#8211; stanno portando avanti una proposta che potrebbe rivelarsi un game changer. Il loro obiettivo \u00e8 duplice: da un lato, assicurare che le imprese del Vecchio Continente rimangano al passo con i giganti tecnologici globali senza essere soffocate da normative eccessivamente restrittive; dall&#8217;altro, garantire che l&#8217;innovazione non vada a discapito della sicurezza e della trasparenza.<\/p>\n\n\n\n<p>Una bozza informale, trapelata da fonti interne alle istituzioni, illustra un quadro regolamentare meno rigido, che punta a un equilibrio tra libert\u00e0 e responsabilit\u00e0. <\/p>\n\n\n\n<p>L&#8217;Italia, nonostante non sia un attore chiave nello sviluppo di queste tecnologie avanzate, si \u00e8 schierata a favore di questo approccio, evidenziando il desiderio comune di una posizione unitaria europea.<\/p>\n\n\n\n<p>Il fulcro dell&#8217;accordo si concentra sulla responsabilit\u00e0 &#8220;a valle&#8221; dei creatori di IA, promuovendo l&#8217;adozione di codici di condotta specifici per settore. Al fine di garantire un maggiore rispetto delle normative, si sta valutando l&#8217;adozione di codici di condotta specifici per i fornitori di IA. Questi codici potrebbero fungere da linee guida, stabilendo standard etici e legali per assicurare il rispetto dei diritti d&#8217;autore in tutte le fasi di sviluppo e utilizzo <strong>dell&#8217;intelligenza<\/strong> <strong>artificiale<\/strong>.<\/p>\n\n\n\n<p>Questa strategia potrebbe tradursi in uno scenario in cui gli sviluppatori di IA sono incoraggiati a seguire linee guida etiche e standard di sicurezza senza essere intralciati da un eccesso di burocrazia.<\/p>\n\n\n\n<p>In sostanza, il trilaterale franco-tedesco-italiano sta disegnando le linee di un nuovo paradigma, dove la flessibilit\u00e0 regolamentare diventa la chiave per un mercato dell&#8217;IA dinamico e innovativo. Con questo spirito, l&#8217;Europa si appresta a definire il proprio percorso nel delicato equilibrio tra progresso tecnologico e protezione sociale.<\/p>\n\n\n\n<p>Questo accordo propone un modello pi\u00f9 flessibile che favorisce un mercato dell&#8217;IA meno rigido, permettendo un ambiente pi\u00f9 propenso all&#8217;innovazione. Questa inclinazione verso un&#8217;economia pi\u00f9 liberale e dinamica riflette una tendenza globale a promuovere la crescita economica attraverso una minore interferenza regolamentare, come evidenziato dalla libert\u00e0 economica definita nella Costituzione e dalla sua rilevanza internazionale.<\/p>\n\n\n\n<p>Secondo questa nuova proposta, i fornitori di modelli di IA dovranno dimostrare di aver adottato misure adeguate per garantire il rispetto delle leggi sul diritto d&#8217;autore. &nbsp;<\/p>\n\n\n\n<p>Ci\u00f2 include l&#8217;implementazione di misure tecniche e organizzative per assicurare che i dati utilizzati per l&#8217;addestramento dei modelli rispettino le normative vigenti. Inoltre, i fornitori dovrebbero dimostrare di aver rispettato le eccezioni per il text e data mining previste dalla legge sul diritto d&#8217;autore. &nbsp;<\/p>\n\n\n\n<p>La nuova normativa impone ai fornitori di modelli di <strong>intelligenza<\/strong> <strong>artificiale<\/strong> (IA) di affrontare una sfida non trascurabile: assicurare che i loro processi di sviluppo e addestramento siano in linea con le vigenti leggi sul diritto d&#8217;autore. \u00a0<\/p>\n\n\n\n<p>Oltre a questo, \u00e8 necessario che venga resa disponibile una descrizione dettagliata del materiale utilizzato per l&#8217;addestramento e che vengano fornite informazioni trasparenti sulle strategie implementate per risolvere eventuali questioni legate al diritto d&#8217;autore.&nbsp;<\/p>\n\n\n\n<p>Queste iniziative legislative non soltanto incrementano la trasparenza ma sono anche volte a promuovere un&#8217;etica pi\u00f9 responsabile e consapevole nell&#8217;ambito dello sviluppo dell&#8217;IA in Europa. &nbsp;<\/p>\n\n\n\n<p>Con queste misure, i legislatori europei mirano a stabilire un quadro di riferimento che possa fungere da modello per un&#8217;avanzata regolamentazione <strong>dell&#8217;intelligenza<\/strong> <strong>artificiale<\/strong> a livello globale.\u00a0<\/p>\n\n\n\n<p>La proposta prevede anche un&#8217;attenzione particolare alla trasparenza nei confronti degli utenti finali. <\/p>\n\n\n\n<p>I fornitori di modelli di IA dovrebbero garantire che gli utenti siano informati in modo adeguato quando interagiscono con contenuti generati da questi sistemi. Questo obiettivo mira a preservare la fiducia e la chiarezza nell&#8217;utilizzo delle tecnologie basate sull&#8217;IA.\u00a0<\/p>\n\n\n\n<p>Un regime sanzionatorio meno immediato, consentendo alle aziende che sviluppano tecnologie basate <strong>sull&#8217;intelligenza<\/strong> <strong>artificiale<\/strong> di avere una fase iniziale di adattamento e apprendimento.\u00a0\u00a0<\/p>\n\n\n\n<p>D&#8217;altra parte, l&#8217;accordo trilaterale sembra puntare su una regolamentazione successiva, facendo affidamento sulla capacit\u00e0 auto regolamentativa del settore.&nbsp;<\/p>\n\n\n\n<p>Questo modello si contrappone al modello pi\u00f9 rigido e uniforme proposto dal Regolamento europeo, in cui la regola precauzionale viene applicata in base alla classificazione dei livelli di rischio. L&#8217;AI Act, con il suo approccio regolamentativo preventivo, mira a garantire un elevato livello di sicurezza e tutela dei diritti fondamentali attraverso un controllo anticipato.&nbsp;<\/p>\n\n\n\n<p>Questa discrepanza potrebbe generare problemi di coerenza e armonizzazione tra le normative degli Stati membri e quelle dell&#8217;UE, sollevando dubbi sull&#8217;efficacia della supervisione e dell&#8217;applicazione delle regole.&nbsp;&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-nuovi-standard-ue-per-la-tracciabilita-dei-dati-nell-intelligenza-artificiale-nbsp\"><strong>Nuovi Standard UE per la Tracciabilit\u00e0 dei Dati nell&#8217;Intelligenza Artificiale<\/strong>&nbsp;<\/h3>\n\n\n\n<p>Il Parlamento Europeo ha avanzato una proposta innovativa all&#8217;articolo 28b(4), che obbliga i fornitori di modelli AI a registrare e rendere noto il contenuto utilizzato durante la fase di addestramento.&nbsp;<\/p>\n\n\n\n<p>Gli sviluppatori e gli operatori di sistemi AI saranno tenuti a mantenere registrazioni dettagliate sull&#8217;utilizzo dei dati, una mossa che mira a garantire la conformit\u00e0 ai principi etici e la tutela dei diritti fondamentali &nbsp;<\/p>\n\n\n\n<p>Questo nuovo mandato impone agli sviluppatori e ai gestori di sistemi AI di documentare meticolosamente l&#8217;uso dei dati per l&#8217;addestramento degli algoritmi. La documentazione deve evidenziare la provenienza dei dati, soprattutto quando derivano da terze parti, e l&#8217;utilizzo specifico che ne viene fatto. &nbsp;<\/p>\n\n\n\n<p>Questa pratica garantisce non solo trasparenza e responsabilit\u00e0, ma funge anche da cronistoria dell&#8217;integrit\u00e0 di ogni sistema di <strong>intelligenza<\/strong> <strong>artificiale<\/strong>.  Allinea i progressi tecnologici con un solido quadro etico, posizionando l&#8217;Unione Europea come un leader nella regolamentazione dell&#8217;intelligenza artificiale a livello globale.<\/p>\n\n\n\n<p>La tracciabilit\u00e0 diventa un pilastro fondamentale per garantire la responsabilit\u00e0 degli sviluppatori di <strong>intelligenza<\/strong> <strong>artificiale<\/strong>. \u00c8 essenziale che i registri contengano informazioni dettagliate sull&#8217;origine, la natura e l&#8217;utilizzo dei dati raccolti, inclusi quelli acquisiti da terze parti. <\/p>\n\n\n\n<p>Questa tracciabilit\u00e0 si applica a tutti i modelli e sistemi di <strong>intelligenza<\/strong> <strong>artificiale<\/strong> disponibili nell&#8217;Unione Europea o che generano output utilizzati nell&#8217;UE, indipendentemente dal luogo di sviluppo. Questo \u00e8 fondamentale per prevenire il &#8220;riciclaggio di intelligenza artificiale&#8221; e l&#8217;utilizzo di contenuti illegali all&#8217;interno dell&#8217;Unione.<\/p>\n\n\n\n<p>La responsabilit\u00e0 della conservazione dei registri ricade sugli sviluppatori dei modelli di base e continua a essere applicata a tutte le entit\u00e0 che utilizzano questi modelli, assicurando che l&#8217;onere della prova non possa essere eluso. \u00a0<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-la-ricerca-di-un-compromesso-la-spagna-media-tra-le-diverse-visioni\">La Ricerca di un Compromesso: La Spagna Media tra le Diverse Visioni\u00a0<\/h3>\n\n\n\n<p>Durante il suo mandato, la presidenza spagnola dell&#8217;UE ha assunto un ruolo chiave di intermediazione, facilitando il dialogo tra il Parlamento Europeo e gli Stati membri nella ricerca di un consenso sulle normative che regolano l&#8217;intelligenza artificiale (IA). Un compromesso introdotto dalla Spagna punta a trovare un equilibrio tra il fomento dell&#8217;innovazione tecnologica e il rispetto dei diritti d&#8217;autore.&nbsp;<\/p>\n\n\n\n<p>La proposta richiede ai fornitori di modelli di intelligenza artificiale (IA) di fornire prove concrete delle misure adottate per garantire la conformit\u00e0 alle leggi sul diritto d&#8217;autore, con particolare attenzione alle disposizioni relative al text e data mining (TDM). <\/p>\n\n\n\n<p>\u00c8 inoltre necessaria la divulgazione di un resoconto dettagliato dei materiali impiegati per l&#8217;addestramento dei modelli, accompagnato da una descrizione delle politiche implementate per gestire le implicazioni del diritto d&#8217;autore. Questo approccio si propone di conciliare la necessit\u00e0 di tutelare gli interessi degli autori con la volont\u00e0 di promuovere la ricerca e lo sviluppo nel campo dell&#8217;IA.\u00a0<\/p>\n\n\n\n<p>L&#8217;obiettivo \u00e8 quello di stabilire due percorsi regolatori: uno pi\u00f9 rigoroso per le IA ad alto impatto, che richiederebbe misure preventive prima dell&#8217;entrata sul mercato, e uno pi\u00f9 leggero per gli altri modelli di base, con regole che entrerebbero in gioco solo al momento della commercializzazione\u00a0<\/p>\n\n\n\n<p>Il dibattito in corso potrebbe avere implicazioni significative per il futuro della regolamentazione europea dell&#8217;intelligenza artificiale, con un impatto diretto sul mercato unico digitale.&nbsp;&nbsp;<\/p>\n\n\n\n<p>La questione non \u00e8 soltanto politica ma riguarda anche l&#8217;eterno interrogativo su come equilibrare al meglio la necessit\u00e0 di una regolamentazione attenta al bene comune con il desiderio di non limitare l&#8217;innovazione e la crescita economica.&nbsp;<\/p>\n\n\n\n<p>La decisione di optare per un modello pi\u00f9 flessibile, come quello proposto dall\u2019accordo trilaterale, riflette una preferenza per un mercato dell\u2019IA pi\u00f9 liberale e meno vincolato da prescrizioni a priori, che potrebbe favorire l\u2019innovazione.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Tuttavia, ci\u00f2 pone in rilievo la tensione intrinseca tra la necessit\u00e0 di un intervento pubblico per la tutela dei diritti fondamentali e il desiderio di non ostacolare le libert\u00e0 economiche.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-verso-un-nuovo-orizzonte-regolatorio-l-europa-punta-su-codici-di-condotta-e-model-cards-nell-ia\">Verso un Nuovo Orizzonte Regolatorio: L&#8217;Europa Punta su Codici di Condotta e Model Cards nell&#8217;IA<\/h3>\n\n\n\n<p>L&#8217;accordo trilaterale si basa su due pilastri: l&#8217;istituzione di codici di condotta per gli operatori stessi e la diffusione di modelli di carta.\u00a0<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-codici-di-condotta-nbsp\"><em>Codici di condotta<\/em>&nbsp;<\/h4>\n\n\n\n<p>La decisione dei tre sottoscrittori di sostenere l&#8217;auto-regolamentazione obbligatoria attraverso codici di condotta per i modelli di <strong>intelligenza<\/strong> <strong>artificiale<\/strong> (IA) segna un passaggio importante.\u00a0\u00a0<\/p>\n\n\n\n<p>Questo approccio si basa sulla leale collaborazione tra il potere pubblico e gli operatori commerciali, promuovendo un&#8217;autodisciplina guidata da principi anzich\u00e9 imporre regole rigide.&nbsp;&nbsp;<\/p>\n\n\n\n<p>L&#8217;obiettivo \u00e8 creare un modello normativo pi\u00f9 reattivo alle peculiarit\u00e0 dell&#8217;applicazione dell&#8217;IA, concentrandosi sull&#8217;uso che se ne fa anzich\u00e9 limitare la tecnologia stessa.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-model-cards-nbsp\"><em>Model cards<\/em>&nbsp;<\/h4>\n\n\n\n<p>Le cosiddette &#8220;model cards&#8221; rappresentano un elemento chiave di questa innovazione regolatoria.&nbsp;<\/p>\n\n\n\n<p>Il progetto proposto mira a responsabilizzare gli sviluppatori dei modelli di fondazione affinch\u00e9 forniscano &#8220;schede modello&#8221; dettagliate.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Le schede modello sono progettate per essere comprensibili al pubblico generale e dovrebbero fornire dettagli tecnici come il numero di parametri, gli utilizzi previsti, le possibili limitazioni e i risultati degli studi sui bias e sulla valutazione della sicurezza. Questo strumento dovrebbe diventare una parte obbligatoria dell&#8217;autoregolamentazione dei modelli di <strong>intelligenza<\/strong> <strong>artificiale<\/strong>.\u00a0<\/p>\n\n\n\n<p>Per gli sviluppatori, la creazione di una model card \u00e8 un esercizio di riflessione critica che li spinge ad analizzare e documentare le prestazioni e i potenziali bias dei loro sistemi. Questo processo dovrebbe incoraggiare la progettazione di sistemi pi\u00f9 equi e sicuri da parte degli operatori economici, poich\u00e9 la diffusione delle model cards diventa parte integrante del processo di sviluppo e valutazione dell&#8217;IA.&nbsp;<\/p>\n\n\n\n<p>Tuttavia, sembra che tutto ci\u00f2 non costituisca un obbligo giuridico effettivo, e non sono previste sanzioni in caso di mancato rispetto. Questo potrebbe essere un problema, come evidenziato da Reuters. La sanzione, di cui non \u00e8 stato specificato il soggetto emittente, verrebbe applicata solo in caso di violazione del codice di condotta, il quale potrebbe non specificare in modo chiaro e completo il principio di trasparenza.&nbsp;&nbsp;<\/p>\n\n\n\n<p>I tre paesi propongono un regime sanzionatorio che entrerebbe in vigore solo dopo violazioni sistematiche e un&#8217;analisi approfondita delle carenze. Questo approccio suggerisce l&#8217;intenzione di bilanciare l&#8217;innovazione con la necessit\u00e0 di garantire la conformit\u00e0 e la sicurezza.&nbsp;<\/p>\n\n\n\n<p>Ad esempio, non emerge alcun obbligo di pubblicare i codici sorgente delle singole applicazioni di IA. La differenza \u00e8 significativa, poich\u00e9 mentre le model cards descrivono il funzionamento e le prestazioni di ogni strumento, i codici sorgente contengono le istruzioni per costruire l&#8217;architettura del modello, addestrarlo sui dati, testarlo e implementare metodi per il suo utilizzo attraverso algoritmi, classi e funzioni.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-copyright-e-sorveglianza-i-punti-caldi-del-dibattito-nbsp\"><em>Copyright e Sorveglianza: I Punti Caldi del Dibattito<\/em>&nbsp;<\/h3>\n\n\n\n<p>Nonostante la ricerca di soluzioni equilibrate, permangono divergenze su come affrontare la protezione del copyright e l&#8217;uso di IA nei processi creativi.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Inoltre, c&#8217;\u00e8 ancora molta controversia sull&#8217;utilizzo del riconoscimento facciale nei luoghi pubblici, con alcuni paesi che si oppongono a restrizioni che potrebbero favorire lo sviluppo di una &#8220;polizia preventiva&#8221;.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Il dibattito all&#8217;interno dell&#8217;Unione Europea riguardo alla privacy e alla sicurezza si \u00e8 intensificato attorno alla questione dell&#8217;uso della sorveglianza biometrica da parte delle autorit\u00e0 di polizia. &nbsp;<\/p>\n\n\n\n<p>Nel quadro del progetto di legge <strong>sull&#8217;intelligenza<\/strong> <strong>artificiale<\/strong>, noto come AI Act, tale pratica \u00e8 stata identificata come un rischio elevato, con la legislazione che prevede poche eccezioni, soggette a rigorosi controlli.\u00a0<\/p>\n\n\n\n<p>Secondo Brando Benifei, membro del Parlamento europeo, ci sono tensioni riguardo all&#8217;uso della sorveglianza tramite <strong>intelligenza<\/strong> <strong>artificiale<\/strong>. Alcuni stati membri si mostrano restii ad accettare limitazioni sull&#8217;utilizzo del riconoscimento facciale, ma il Parlamento europeo sembra non essere disposto a negoziare su questo punto.\u00a0<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-regolamentazione-dell-ia-un-passo-avanti-con-il-disegno-di-legge-del-pd\"><strong>Regolamentazione dell&#8217;IA: Un Passo Avanti con il Disegno di Legge del PD<\/strong>\u00a0<\/h3>\n\n\n\n<p>Il dibattito politico <strong>sull&#8217;intelligenza<\/strong> <strong>artificiale<\/strong> in Italia si arricchisce con una proposta legislativa del Partito Democratico (PD), che punta a definire nuovi standard di trasparenza per i contenuti generati da sistemi di IA. Con il disegno di legge &#8220;Misure sulla trasparenza dei contenuti generati da intelligenza artificiale&#8221;, l&#8217;opposizione mette in campo una misura che potrebbe cambiare il modo in cui consumatori e cittadini interagiscono con la tecnologia.\u00a0<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-identificazione-obbligatoria-la-svolta-proposta-dal-pd-nbsp\"><em>Identificazione Obbligatoria: La Svolta Proposta dal PD<\/em>&nbsp;<\/h4>\n\n\n\n<p>Il fulcro della proposta legislativa \u00e8 l&#8217;obbligo di etichettare chiaramente tutti i contenuti mediatici &#8211; testuali, visivi e sonori &#8211; che sono stati creati o modificati <strong>dall&#8217;intelligenza<\/strong> <strong>artificiale<\/strong>. Questa misura vuole garantire che gli utenti siano pienamente consapevoli dell&#8217;origine dei contenuti che fruiscono, distinguendo nettamente tra produzioni umane e artificiali.\u00a0<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-responsabilita-editoriale-e-distribuzione-consapevole-nbsp\"><em>Responsabilit\u00e0 Editoriale e Distribuzione Consapevole<\/em>&nbsp;<\/h4>\n\n\n\n<p>La proposta del PD va oltre la semplice etichettatura. Chiede infatti che editori e distributori non solo appongano le etichette, ma si assicurino anche che queste siano facilmente visibili e comprensibili, sottolineando cos\u00ec la provenienza IA dei contenuti. Questo non solo aumenterebbe la consapevolezza degli utenti, ma introdurrebbe anche una responsabilit\u00e0 diretta per chi pubblica e diffonde tali contenuti.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-vigilanza-e-sanzioni-il-ruolo-dell-agcom-nbsp\"><em>Vigilanza e Sanzioni: Il Ruolo dell&#8217;Agcom<\/em>&nbsp;<\/h4>\n\n\n\n<p>Per quanto riguarda i controlli, il disegno di legge affida all&#8217;Autorit\u00e0 per le Garanzie nelle Comunicazioni (Agcom) il compito di stabilire i meccanismi di segnalazione e rimozione dei contenuti illeciti, nonch\u00e9 di definire un sistema sanzionatorio proporzionato alla gravit\u00e0 delle violazioni.\u00a0<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-un-forum-consultivo-per-un-intelligenza-collettiva\">Un Forum Consultivo per un&#8217;Intelligenza Collettiva\u00a0<\/h3>\n\n\n\n<p>Riprendendo una proposta del Parlamento Europeo, si prevede la creazione di un forum consultivo che includa rappresentanti dell&#8217;industria, PMI, start-up, societ\u00e0 civile e mondo accademico&nbsp;<\/p>\n\n\n\n<p>&nbsp;Questo organismo fornir\u00e0 competenze tecniche essenziali al Consiglio e all&#8217;Ufficio per l&#8217;IA, facilitando un dialogo aperto tra stakeholder diversificati.&nbsp;<\/p>\n\n\n\n<p>Il comitato per <strong>l&#8217;intelligenza<\/strong> <strong>artificiale<\/strong> avr\u00e0 il compito di assicurare un&#8217;applicazione uniforme del regolamento sull&#8217;IA nell&#8217;UE, nonch\u00e9 di fornire consulenza su legislazione secondaria, codici di condotta e standard tecnici.\u00a0<\/p>\n\n\n\n<p>Questo organismo sar\u00e0 modellato sul Comitato Europeo per la Protezione dei Dati, garantendo cos\u00ec un approccio consolidato e testato.&nbsp;<\/p>\n\n\n\n<p>La composizione del Consiglio di amministrazione terr\u00e0 conto della diversit\u00e0 di genere e geografica, riflettendo l&#8217;impegno dell&#8217;UE verso l&#8217;inclusivit\u00e0\u00a0<\/p>\n\n\n\n<p>Inoltre, il panel avr\u00e0 il compito di consigliare l&#8217;Ufficio AI sui modelli di General Purpose AI (GPAI), contribuendo alla valutazione delle loro capacit\u00e0 e rischi.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-governance-e-conformita-nbsp\"><strong>Governance e Conformit\u00e0<\/strong>&nbsp;<\/h3>\n\n\n\n<p>Si discute anche la creazione di un organo di governance dell&#8217;IA che avrebbe il compito di sviluppare linee guida e supervisionare l&#8217;applicazione delle schede modello. Questa entit\u00e0 faciliterebbe anche la segnalazione di eventuali violazioni, promuovendo un ambiente di maggiore responsabilit\u00e0<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-scontro-legale-nel-mondo-della-musica-e-dell-ai-nbsp\"><em>Scontro Legale nel Mondo della Musica e dell&#8217;AI<\/em>&nbsp;<\/h3>\n\n\n\n<p>Gli editori musicali si confrontano con il futuro tecnologico in una battaglia legale che potrebbe definire i confini tra <strong>l&#8217;intelligenza<\/strong> <strong>artificiale<\/strong> e i diritti d&#8217;autore. Universal Publishing, insieme a Concord Music e ABKCO Music, ha avviato un&#8217;azione legale contro Anthropic, la startup di AI dietro la chatbot Claude, sostenendo una violazione sistematica del copyright.\u00a0<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-l-accusa-plagio-su-larga-scala-nbsp\"><em>L&#8217;Accusa: Plagio su Larga Scala<\/em>&nbsp;<\/h4>\n\n\n\n<p>La querela solleva questioni cruciali sull&#8217;uso delle opere protette da copyright da parte delle IA. Secondo gli editori, Claude non si limita a utilizzare contenuti protetti, ma li plagia, distribuendo testi di canzoni famose senza il dovuto riconoscimento dei diritti d&#8217;autore.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-il-caso-di-american-pie-nbsp\"><em>Il Caso di &#8220;American Pie&#8221;<\/em>&nbsp;<\/h4>\n\n\n\n<p>Un esempio lampante \u00e8 stato citato dalla causa: quando Claude viene incaricata di scrivere una canzone su un tema generico, come la morte di Buddy Holly, il sistema produce testi che ricalcano opere protette come &#8220;American Pie&#8221; di Don McLean, senza alcuna menzione specifica dell&#8217;opera originale.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-la-risposta-di-anthropic-nbsp\"><em>La Risposta di Anthropic<\/em>&nbsp;<\/h4>\n\n\n\n<p>Anthropic si trova sotto accusa non solo per l&#8217;uso improprio del materiale protetto ma anche per la sua riluttanza a divulgare le informazioni sui modelli di base utilizzati per addestrare la sua IA, un atto che gli editori interpretano come consapevolezza della violazione.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-le-richieste-degli-editori-nbsp\"><em>Le Richieste degli Editori<\/em>&nbsp;<\/h4>\n\n\n\n<p>Gli editori non solo cercano un risarcimento ma anche trasparenza: vogliono che Anthropic riveli i dettagli dell&#8217;algoritmo e distrugga tutti i contenuti impiegati per l&#8217;addestramento della piattaforma AI.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-implicazioni-future-nbsp\"><em>Implicazioni Future<\/em>&nbsp;<\/h4>\n\n\n\n<p>Questo caso potrebbe avere ripercussioni significative sullo sviluppo futuro delle tecnologie AI e sulla gestione dei diritti d&#8217;autore nell&#8217;era digitale. Con le parti in attesa di un verdetto, il settore musicale e quello tecnologico attendono con ansia le conclusioni di questa controversia legale.&nbsp;<\/p>\n\n\n\n<p>La prospettiva di un accordo appare sempre pi\u00f9 incerta, e molti osservatori temono che la ricerca di un compromesso possa portare a una soluzione complessa e poco ambiziosa. In un contesto dove l\u2019innovazione e la regolamentazione dell\u2019IA sono cruciali per il futuro dell\u2019Europa e oltre, il risultato di questo tentativo di equilibrismo rimane in realt\u00e0 piuttosto instabile.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-intelligenza-artificiale-il-parere-n-44-2023-dell-edps-sulla-proposta-di-legge-ue-nbsp\">Intelligenza artificiale: il parere n. 44\/2023 dell\u2019EDPS sulla proposta di legge UE&nbsp;<\/h3>\n\n\n\n<p>Nuovi Orizzonti Normativi: L&#8217;EDPS e il Regolamento <strong>sull&#8217;Intelligenza<\/strong> <strong>Artificiale<\/strong>\u00a0<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-l-edps-e-la-proposta-di-regolamento-sull-ia-un-parere-critico-nbsp\"><em>L&#8217;EDPS e la Proposta di Regolamento sull&#8217;IA: Un Parere Critico<\/em>&nbsp;<\/h3>\n\n\n\n<p>Il 23 ottobre 2023, il panorama normativo europeo <strong>sull&#8217;Intelligenza<\/strong> <strong>Artificiale<\/strong> (IA) ha ricevuto un contributo significativo dall&#8217;European Data Protection Supervisor (EDPS), che ha emesso il Parere n. 44\/2023. Questo documento, frutto di un&#8217;analisi approfondita, offre una panoramica dettagliata e critica della Proposta di Regolamento sull&#8217;IA presentata dal Parlamento UE e dal Consiglio.\u00a0<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-linee-guida-e-raccomandazioni-dell-edps-nbsp\"><em>Linee Guida e Raccomandazioni dell&#8217;EDPS<\/em>&nbsp;<\/h3>\n\n\n\n<p>L&#8217;EDPS, attraverso il suo parere, ha delineato una serie di linee guida e raccomandazioni per assicurare che l&#8217;utilizzo dell&#8217;IA rispetti i diritti fondamentali delle persone. La necessit\u00e0 di regolamentare sistemi di IA ad alto rischio, come quelli impiegati per il social scoring o il riconoscimento automatico in spazi pubblici, \u00e8 stata enfatizzata come una priorit\u00e0.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-la-conformita-dei-sistemi-di-ia-preesistenti-nbsp\"><em>La Conformit\u00e0 dei Sistemi di IA Preesistenti<\/em>&nbsp;<\/h3>\n\n\n\n<p>Un punto focale del parere \u00e8 la richiesta che i sistemi di IA gi\u00e0 operativi al momento dell&#8217;entrata in vigore del nuovo regolamento siano adeguatamente conformi ai nuovi standard legislativi, senza alcuna esenzione.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-ruoli-e-responsabilita-dell-edps-nbsp\"><em>Ruoli e Responsabilit\u00e0 dell&#8217;EDPS<\/em>&nbsp;<\/h3>\n\n\n\n<p>L&#8217;EDPS si \u00e8 espresso favorevolmente sulla propria designazione come organismo notificato e autorit\u00e0 di vigilanza del mercato nell&#8217;ambito della legge sull&#8217;IA. Tuttavia, ha chiesto ulteriori chiarimenti sui suoi compiti e poteri specifici, nonch\u00e9 risorse adeguate per svolgerli.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-diritto-di-ricorso-e-supervisione-europea-nbsp\"><em>Diritto di Ricorso e Supervisione Europea<\/em>&nbsp;<\/h3>\n\n\n\n<p>L&#8217;inclusione nella legge del diritto delle persone a presentare reclami e ad avere un ricorso giurisdizionale efficace \u00e8 stata sostenuta con vigore dall&#8217;EDPS. Inoltre, l&#8217;EDPS ha apprezzato l&#8217;iniziativa del Parlamento UE di istituire un Ufficio europeo sull&#8217;AI, vedendolo come un passo verso un approccio pi\u00f9 armonizzato e meno frammentato all&#8217;applicazione della legge.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-verso-un-futuro-normativo-armonizzato-nbsp\">Verso un Futuro Normativo Armonizzato&nbsp;<\/h4>\n\n\n\n<p>Questo parere rappresenta un passo importante verso la creazione di un quadro normativo europeo pi\u00f9 coeso per <strong>l&#8217;intelligenza<\/strong> <strong>artificiale<\/strong>, con l&#8217;obiettivo di proteggere i diritti dei cittadini e promuovere l&#8217;innovazione tecnologica in modo responsabile. L&#8217;EDPS si pone come punto di riferimento essenziale in questo processo, fornendo un input critico e costruttivo per plasmare il futuro <strong>dell&#8217;intelligenza<\/strong> <strong>artificiale<\/strong> in Europa.\u00a0<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-un-futuro-affidabile-e-trasparente-la-dichiarazione-di-bletchley-sull-intelligenza-artificiale-nbsp\"><strong>Un Futuro Affidabile e Trasparente: La Dichiarazione di Bletchley sull&#8217;Intelligenza Artificiale<\/strong>&nbsp;<\/h3>\n\n\n\n<p>Durante l&#8217;incontro di portata internazionale avvenuto nella storica localit\u00e0 di Bletchley Park, noto come il luogo natale della crittografia moderna, \u00e8 stata redatta una dichiarazione che segna un passo significativo per la cooperazione globale. La Dichiarazione di Bletchley, firmata da 28 paesi, rappresenta un impegno congiunto nel promuovere lo sviluppo di <strong>un&#8217;intelligenza<\/strong> <strong>artificiale<\/strong> (IA) che sia al contempo sicura e affidabile. Questo documento enfatizza la necessit\u00e0 di un approccio olistico e interdisciplinare per affrontare le complesse sfide poste dall&#8217;IA, riconoscendo contemporaneamente il suo enorme potenziale nel contribuire al miglioramento della condizione umana, alla pace e alla prosperit\u00e0 su scala mondiale.\u00a0<\/p>\n\n\n\n<p>Il 1\u00b0 e 2\u00b0 novembre 2023, Bletchley Park ha ospitato l&#8217;AI Safety Summit, un evento che ha riunito rappresentanti governativi, aziende leader nel settore dell&#8217;IA e numerosi specialisti del campo. L&#8217;obiettivo principale del summit \u00e8 stato quello di dibattere e formulare strategie atte a mitigare i rischi inerenti all&#8217;uso <strong>dell&#8217;intelligenza<\/strong> <strong>artificiale<\/strong>, garantendo un cammino sicuro verso il futuro dell&#8217;automazione e del pensiero artificiale.\u00a0<\/p>\n\n\n\n<p>Il Summit sulla Sicurezza <strong>dell&#8217;Intelligenza<\/strong> <strong>Artificiale<\/strong> ha rappresentato un punto di svolta per l&#8217;IA, convocando illustri leader e pionieri tecnologici per definire il corso futuro di questa disciplina.\u00a0<\/p>\n\n\n\n<p>Tra i partecipanti, figure di spicco come Sam Altman, mente dietro ChatGPT, ed Elon Musk hanno messo in luce i rischi potenziali che l&#8217;IA potrebbe presentare, sottolineando con urgenza la necessit\u00e0 di un fronte comune. Hanno invocato la collaborazione internazionale e l&#8217;adozione di una visione unitaria per i prossimi cinque anni, al fine di navigare con prudenza le acque dell&#8217;innovazione tecnologica.&nbsp;<\/p>\n\n\n\n<p>Il manifesto di Bletchley evidenzia con urgenza l&#8217;importanza di un&#8217;alleanza internazionale per gestire le sfide emergenti dall&#8217;avanzamento <strong>dell&#8217;intelligenza<\/strong> <strong>artificiale<\/strong>. Il prossimo summit del G7, che si terr\u00e0 in Italia, rappresenta un&#8217;opportunit\u00e0 critica per consolidare gli impegni presi e per perpetuare il dialogo su scala globale.\u00a0<\/p>\n\n\n\n<p>Il vertice sull&#8217;AI Safety \u00e8 culminato con l&#8217;approvazione unanime della Dichiarazione di Bletchley da parte di ventotto stati, segnando un impegno verso una sinergia mondiale nell&#8217;orientare l&#8217;IA verso un ethos centrato sull&#8217;umanit\u00e0. Questo accordo enfatizza la determinazione a preservare i diritti umani imprescindibili e a fronteggiare attivamente i rischi legati all&#8217;utilizzo dell&#8217;IA. Inoltre, la Dichiarazione chiama i creatori e i distributori di IA a svolgere un ruolo proattivo nell&#8217;assicurare che le tecnologie siano trasparenti e comprensibili.&nbsp;<\/p>\n\n\n\n<p>La Dichiarazione di Bletchley esorta a una maggiore trasparenza informativa, stimolando tutti gli stakeholder a partecipare attivamente alla creazione di uno spazio digitale pi\u00f9 sicuro e responsabile.&nbsp;<\/p>\n\n\n\n<p>La Dichiarazione di Bletchley enfatizza la necessit\u00e0 di armonizzare i principi europei, come il rispetto della privacy sancito dal GDPR, con le dinamiche di un ecosistema digitale in continua trasformazione. Si invita a un equilibrio tra progresso tecnologico e normativa che preservi inalterati i diritti degli individui.&nbsp;<\/p>\n\n\n\n<p>La sicurezza emerge come principio cardine che deve pervadere ogni aspetto dell&#8217;IA: dalla progettazione al rilascio, fino all&#8217;adozione e all&#8217;operativit\u00e0. \u00c8 imperativo promuovere la trasparenza all&#8217;interno dei sistemi di IA e sollecitare le entit\u00e0 private a conformarsi a standard di sicurezza severi, al fine di tutelare i diritti degli utenti e contrastare le distorsioni algoritmiche.&nbsp;<\/p>\n\n\n\n<p>Per realizzare gli obiettivi tracciati dalla Dichiarazione, non basta riconoscere i pericoli; si rende indispensabile anche una collaborazione scientifica internazionale e un sincronismo nelle politiche governative. La Dichiarazione ribadisce che ogni soggetto coinvolto ha un compito determinante nel garantire la sicurezza dell&#8217;IA, esortando a una cooperazione estesa che includa governi, istituzioni accademiche, ricercatori e il settore privato.&nbsp;<\/p>\n\n\n\n<p>La Dichiarazione di Bletchley segna un&#8217;avanzata decisiva verso una realt\u00e0 in cui <strong>l&#8217;intelligenza<\/strong> <strong>artificiale<\/strong> \u00e8 armonizzata con il benessere dell&#8217;umanit\u00e0. Questo documento stabilisce un impegno verso la collaborazione globale e pone l&#8217;accento sull&#8217;innovazione consapevole, tracciando una strategia per lo sviluppo di un&#8217;intelligenza artificiale che sia non solo avanzata ma anche affidabile, eticamente responsabile e in linea con i principi dei diritti umani.\u00a0<\/p>\n\n\n\n<p>Per osservare i risultati concreti di questa alleanza internazionale, sar\u00e0 necessario monitorare i progressi futuri, in particolar modo l&#8217;implementazione dell&#8217;AI Act in Europa. Questo regolamento si sta rivelando un modello di riferimento nella governance dell&#8217;IA, rispecchiando gli ideali promossi dalla Dichiarazione di Bletchley e ponendo le basi per una governance <strong>dell&#8217;intelligenza<\/strong> <strong>artificiale<\/strong> che sia all&#8217;avanguardia e orientata al bene comune.\u00a0<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-l-innovazione-responsabile-al-centro-dell-ordine-esecutivo-di-biden-sull-ia-nbsp\">L&#8217;Innovazione Responsabile al Centro dell&#8217;Ordine Esecutivo di Biden sull&#8217;IA&nbsp;<\/h3>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-strategia-nazionale-per-l-intelligenza-artificiale-un-passo-verso-il-futuro-nbsp\">Strategia Nazionale per l&#8217;Intelligenza Artificiale: Un Passo Verso il Futuro&nbsp;<\/h4>\n\n\n\n<p>Con l&#8217;ultimo ordine esecutivo, il presidente Joe Biden ha delineato una visione audace per un futuro in cui <strong>l&#8217;intelligenza<\/strong> <strong>artificiale<\/strong> (IA) \u00e8 sia un motore di progresso che un paradigma di fiducia e responsabilit\u00e0. Questa strategia nazionale sottolinea la necessit\u00e0 di un&#8217;innovazione che non solo spinga i confini della tecnologia, ma che lo faccia in modo sicuro e conforme ai valori democratici.\u00a0<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-collaborazione-industria-governo-la-chiave-per-l-innovazione-nbsp\">Collaborazione Industria-Governo: La Chiave per l&#8217;Innovazione&nbsp;<\/h4>\n\n\n\n<p>Il cuore di questa strategia \u00e8 la collaborazione tra il governo federale e le imprese private. L&#8217;ordine esecutivo incoraggia un partenariato strategico che punta a sviluppare una tecnologia IA che sia all&#8217;avanguardia, ma anche in linea con gli standard rigorosi di sicurezza e privacy. Questo approccio mira a rafforzare la posizione degli Stati Uniti come leader dell&#8217;economia digitale globale.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-protezione-dei-dati-personali-un-impegno-rinnovato-nbsp\">Protezione dei Dati Personali: Un Impegno Rinnovato&nbsp;<\/h4>\n\n\n\n<p>Contrariamente alle preoccupazioni espresse da alcuni critici, l&#8217;ordine esecutivo non mette in secondo piano la protezione dei dati personali. Anzi, incarica il Direttore del National Institute of Standards and Technology (NIST) di sviluppare linee guida per le Privacy Enhancing Technologies (PETs), sottolineando il loro ruolo cruciale nel proteggere i dati personali nell&#8217;era dell&#8217;IA.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-linee-guida-del-nist-un-faro-per-la-privacy-nell-ia-nbsp\">Linee Guida del NIST: Un Faro per la Privacy nell&#8217;IA&nbsp;<\/h4>\n\n\n\n<p>Con un termine di 365 giorni, il NIST dovr\u00e0 fornire linee guida che aiuteranno le agenzie governative a valutare e implementare le PETs. Questo lavoro \u00e8 fondamentale per definire standard chiari per la privacy nell&#8217;utilizzo dell&#8217;IA, mitigando i rischi associati a queste tecnologie.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-ricerca-e-sviluppo-puntare-sulle-pets-nbsp\">Ricerca e Sviluppo: Puntare sulle PETs&nbsp;<\/h4>\n\n\n\n<p>L&#8217;ordine esecutivo incarica anche la National Science Foundation (NSF) di istituire una rete di coordinamento della ricerca incentrata sulle PETs. L&#8217;obiettivo \u00e8 chiaro: stimolare l&#8217;innovazione e l&#8217;adozione di tecnologie che proteggano la privacy.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-cooperazione-pubblico-privato-verso-un-modello-computazionale-distribuito-nbsp\">Cooperazione Pubblico-Privato: Verso un Modello Computazionale Distribuito&nbsp;<\/h4>\n\n\n\n<p>Il programma pilota previsto dall&#8217;ordine esecutivo esplora la creazione di un modello computazionale distribuito per l&#8217;allenamento dell&#8217;IA, promuovendo una cooperazione ancora pi\u00f9 stretta tra pubblico e privato. Questa iniziativa punta a sviluppare un ecosistema di IA che rispetti la privacy fin dalle sue fondamenta.&nbsp;<\/p>\n\n\n\n<p>La firma del presidente Biden sull&#8217;ordine esecutivo segna l&#8217;inizio di una nuova era per <strong>l&#8217;intelligenza<\/strong> <strong>artificiale<\/strong> negli Stati Uniti. Con un impegno rinnovato verso l&#8217;innovazione responsabile, la protezione dei dati personali e la cooperazione tra settori, si gettano le basi per un futuro in cui l&#8217;IA pu\u00f2 prosperare senza compromettere i diritti e la sicurezza dei cittadini americani.\u00a0<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-il-dilemma-dei-modelli-di-base-nell-ia\">Il Dilemma dei Modelli di Base nell&#8217;IA\u00a0<\/h3>\n\n\n\n<p>Nel cuore del dibattito sulla regolamentazione <strong>dell&#8217;intelligenza<\/strong> <strong>artificiale<\/strong> (AI) nell&#8217;Unione Europea si trovano i cosiddetti &#8220;foundation models&#8221;, come il recentemente lanciato GPT-4 di OpenAI. Questi modelli sono essenziali per lo sviluppo di applicazioni tecnologiche avanzate e si distinguono per la loro capacit\u00e0 di essere addestrati su enormi dataset, permettendo loro di eseguire un&#8217;ampia gamma di compiti. A differenza dei modelli pi\u00f9 semplici, progettati per funzioni specifiche, i foundation models possiedono la versatilit\u00e0 necessaria per impieghi che vanno dai chatbot alla traduzione automatica, fino alla creazione di contenuti originali.\u00a0<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-il-testo-del-parlamento-europeo-nbsp\">Il testo del Parlamento europeo &nbsp;<\/h3>\n\n\n\n<p>Il Parlamento europeo, nell&#8217;ambito della proposta di regolamento sull&#8217;AI Act, ha introdotto una classificazione delle applicazioni di <strong>intelligenza<\/strong> <strong>artificiale<\/strong> basata sul livello di rischio che presentano. Questa suddivisione \u00e8 cruciale per determinare il grado di regolamentazione e di controllo necessario per ciascun tipo di sistema AI. La classificazione \u00e8 generalmente suddivisa in quattro categorie principali:\u00a0<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-rischio-inaccettabile\">Rischio inaccettabile: <\/h4>\n\n\n\n<p>Questa categoria comprende le applicazioni di IA che possono violare i diritti fondamentali o che sono considerate incompatibili con i valori dell&#8217;UE, come ad esempio i sistemi di sorveglianza sociali.\u00a0<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-alto-rischio\">Alto rischio:<\/h4>\n\n\n\n<p> In questa categoria rientrano le tecnologie IA che possono avere impatti significativi sulla sicurezza delle persone o sui loro diritti fondamentali. Esempi includono l&#8217;IA utilizzata in ambito medico, nei sistemi giudiziari e nella sorveglianza.\u00a0<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-rischio-limitato\">Rischio limitato:<\/h4>\n\n\n\n<p> Qui si trovano le applicazioni di IA che richiedono una certa trasparenza quando interagiscono con gli utenti, come i chatbot. Gli utenti dovrebbero essere consapevoli del fatto che stanno interagendo con un sistema AI e non con un essere umano.\u00a0<\/p>\n\n\n\n<p>Rischio minimo o nullo: Questa categoria include applicazioni di IA che presentano rischi trascurabili, come gli assistenti vocali o i filtri spam nelle email. Per queste applicazioni, la regolamentazione \u00e8 minima o non necessaria.&nbsp;<\/p>\n\n\n\n<p>Il quadro normativo proposto mira a stabilire standard rigorosi per le applicazioni ad alto rischio, garantendo che siano affidabili, sicure e trasparenti, mentre per quelle a rischio pi\u00f9 basso si prevede una regolamentazione proporzionata al livello di rischio effettivo.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-l-unione-europea-ha-stabilito-delle-regole-ferree-per-le-aziende-che-creano-e-vendono-sistemi-di-intelligenza-artificiale-ia-considerati-ad-alto-rischio-nbsp\"><strong>L&#8217;Unione Europea ha stabilito delle regole ferree per le aziende che creano e vendono sistemi di intelligenza artificiale (IA) considerati &#8220;ad alto rischio&#8221;. <\/strong>&nbsp;<\/h3>\n\n\n\n<p>Questo significa che se un&#8217;azienda sviluppa software che potrebbe avere un impatto serio sulla sicurezza o sui diritti delle persone \u2013 pensiamo a programmi usati negli ospedali o per la valutazione dei rischi in banca \u2013 dovr\u00e0 seguire delle linee guida molto precise.&nbsp;<\/p>\n\n\n\n<p>Ecco in termini semplici cosa dovranno fare queste aziende secondo la nuova legge:&nbsp;<\/p>\n\n\n\n<p>1. Verificare che l&#8217;IA sia a norma: Assicurarsi che i loro sistemi di IA rispettino tutte le regole stabilite dall&#8217;UE, proprio come un autista controlla che la sua auto abbia tutti i documenti in regola prima di mettersi alla guida.&nbsp;<\/p>\n\n\n\n<p>2. Avere un sistema di controllo qualit\u00e0: Mantenere un sistema che controlla continuamente che il software di IA funzioni bene e sia sicuro, un po&#8217; come un capo cuoco che assaggia ogni piatto prima di portarlo in tavola.&nbsp;<\/p>\n\n\n\n<p>3. Preparare la documentazione tecnica: Creare un manuale dettagliato su come \u00e8 fatto e come funziona il sistema di IA, in modo che chi deve controllarlo possa capire facilmente cosa c&#8217;\u00e8 &#8220;sotto il cofano&#8221;.&nbsp;<\/p>\n\n\n\n<p>4. Salvare i dati generati dall&#8217;IA: Conservare tutti i registri che il sistema di IA produce, proprio come si conservano le ricevute di un pagamento importante.&nbsp;<\/p>\n\n\n\n<p>5. Valutare l&#8217;IA prima di lanciarla sul mercato: Prima di vendere il sistema, devono farlo controllare da un ente autorizzato che dia il suo &#8220;ok&#8221;, un po&#8217; come quando si fa collaudare una macchina nuova.&nbsp;<\/p>\n\n\n\n<p>6. Registrare il sistema: Segnalare il sistema di IA alle autorit\u00e0, seguendo le procedure ufficiali, come si fa per registrare un nuovo veicolo.&nbsp;<\/p>\n\n\n\n<p>7. Correggere i problemi: Se si scopre che l&#8217;IA non \u00e8 conforme alle regole, l&#8217;azienda deve immediatamente correggere il tiro.&nbsp;<\/p>\n\n\n\n<p>8. Informare le autorit\u00e0: Se c&#8217;\u00e8 qualche problema con l&#8217;IA, l&#8217;azienda deve dirlo alle autorit\u00e0 competenti e spiegare come ha intenzione di risolverlo.&nbsp;<\/p>\n\n\n\n<p>9. Mettere il bollino CE: Applicare il marchio CE che conferma che il sistema di IA \u00e8 in linea con la legge europea, proprio come si vede sui giocattoli o sugli elettrodomestici.&nbsp;<\/p>\n\n\n\n<p>10. Dimostrare la conformit\u00e0 su richiesta: Se un&#8217;autorit\u00e0 lo chiede, l&#8217;azienda deve essere pronta a mostrare tutte le prove che il suo sistema di IA segue le regole.&nbsp;<\/p>\n\n\n\n<p>Con queste nuove regole, l&#8217;UE vuole assicurarsi che l&#8217;IA sia utilizzata in modo responsabile e sicuro, proteggendo i cittadini e promuovendo allo stesso tempo l&#8217;innovazione e la crescita tecnologica.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-i-creatori-di-questi-sistemi-di-ia-considerati-ad-alto-rischio-devono-tenere-traccia-di-ogni-loro-mossa-come-un-chirurgo-documenta-ogni-passaggio-di-un-operazione-nbsp\"><strong>I creatori di questi sistemi di IA, considerati &#8220;ad alto rischio&#8221;, devono tenere traccia di ogni loro mossa, come un chirurgo documenta ogni passaggio di un&#8217;operazione.<\/strong>&nbsp;<\/h3>\n\n\n\n<p>1. Tenere i Registri: Le aziende devono conservare i dati prodotti dai loro sistemi di IA. Se l&#8217;IA decide chi ottiene un prestito o come viene diagnosticata una malattia, ogni decisione viene registrata. Questo \u00e8 come tenere il conto di ogni ingrediente usato in una ricetta complessa.&nbsp;<\/p>\n\n\n\n<p>2. Durata della Conservazione: Questi registri devono essere tenuti per un periodo di tempo che ha senso. Se l&#8217;IA \u00e8 progettata per scopi che richiedono monitoraggio a lungo termine, allora i dati saranno conservati pi\u00f9 a lungo, proprio come alcune fatture vengono conservate per anni per fini fiscali.&nbsp;<\/p>\n\n\n\n<p>3. Banche e Regole Specifiche: Se l&#8217;azienda che usa l&#8217;IA \u00e8 una banca, allora segue regole ancora pi\u00f9 dettagliate, come quelle descritte nella Direttiva 2013\/36\/UE. Qui, i registri fanno parte di una documentazione pi\u00f9 ampia, un po&#8217; come un diario dettagliato che tiene traccia di tutte le attivit\u00e0 finanziarie.&nbsp;<\/p>\n\n\n\n<p>In pratica, se una di queste aziende non segue le regole alla lettera, potrebbe trovarsi in guai seri. Questo significa che la prossima volta che interagite con un sistema di IA, potete stare un po&#8217; pi\u00f9 tranquilli sapendo che c&#8217;\u00e8 una sorta di &#8220;scatola nera&#8221; che tiene traccia di tutto ci\u00f2 che fa, pronta per essere esaminata se qualcosa va storto.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-obbligo-di-intervento-rapido-per-i-produttori-in-caso-di-non-conformita-nbsp\">Obbligo di Intervento Rapido per i Produttori in Caso di Non Conformit\u00e0&nbsp;<\/h3>\n\n\n\n<p>Le aziende che mettono sul mercato sistemi di <strong>intelligenza<\/strong> <strong>artificiale<\/strong> (IA) considerati &#8220;ad alto rischio&#8221; ora hanno un obbligo legale immediato se scoprono che il loro prodotto non \u00e8 all&#8217;altezza degli standard richiesti. Se un problema viene alla luce, devono agire rapidamente per risolverlo.\u00a0<\/p>\n\n\n\n<p>1. Azione Immediata: Se un produttore di IA rileva che il suo sistema non rispetta le regole dell&#8217;UE, deve subito correggere il problema. \u00c8 come se un produttore di auto scoprisse un difetto in un modello e dovesse immediatamente trovare una soluzione.&nbsp;<\/p>\n\n\n\n<p>2. Ritiro o Richiamo: Se il problema con il sistema di IA \u00e8 serio, l&#8217;azienda potrebbe dover decidere di toglierlo dal mercato o chiamare indietro i prodotti gi\u00e0 venduti, proprio come avviene con i richiami di alimenti o automobili.&nbsp;<\/p>\n\n\n\n<p>3. Informare la Catena di Distribuzione: Non solo l&#8217;azienda deve correggere il problema, ma deve anche informare tutti i suoi partner commerciali, inclusi distributori, rappresentanti autorizzati e importatori, sulla non conformit\u00e0 del prodotto.&nbsp;<\/p>\n\n\n\n<p>Queste misure sono state adottate per garantire che la tecnologia di IA, che influisce sempre pi\u00f9 sulla vita quotidiana, sia sicura e affidabile. In sostanza, l&#8217;UE vuole assicurarsi che i sistemi di IA siano non solo intelligenti, ma anche responsabili e trasparenti.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-la-procedura-in-caso-di-rischio-nbsp\">La Procedura in Caso di Rischio&nbsp;<\/h3>\n\n\n\n<p>Quando si parla di sistemi di <strong>intelligenza<\/strong> <strong>artificiale<\/strong> (IA) ad alto rischio, la vigilanza \u00e8 massima. Se un fornitore di tali sistemi scopre un rischio che potrebbe impattare la sicurezza o i diritti fondamentali \u00e8 tenuto a segnalare immediatamente la situazione alle autorit\u00e0 competenti.\u00a0<\/p>\n\n\n\n<p>Ecco cosa succede in termini semplici:&nbsp;<\/p>\n\n\n\n<p>1. Notifica Immediata Se c&#8217;\u00e8 un rischio conosciuto associato a un sistema di IA ad alto rischio, il fornitore deve informare senza indugio le autorit\u00e0 nazionali degli Stati membri in cui il sistema \u00e8 operativo.&nbsp;<\/p>\n\n\n\n<p>2. Comunicazione a Catena: Non solo le autorit\u00e0 nazionali, ma anche l&#8217;organismo che ha certificato il sistema di IA deve essere informato, specialmente riguardo alla non conformit\u00e0 del prodotto e alle azioni correttive intraprese.&nbsp;<\/p>\n\n\n\n<p>Queste regole fanno parte di una cornice normativa pi\u00f9 ampia che mira a garantire che i sistemi di IA siano sicuri e non violino i diritti delle persone. In un&#8217;era in cui l&#8217;IA \u00e8 sempre pi\u00f9 presente, queste disposizioni cercano di creare un equilibrio tra l&#8217;innovazione tecnologica e la protezione dei consumatori e dei cittadini[1].&nbsp;<\/p>\n\n\n\n<p>In una svolta significativa per la regolamentazione <strong>dell&#8217;intelligenza<\/strong> <strong>artificiale<\/strong> (IA), i fornitori di sistemi di IA ad alto rischio devono ora essere completamente trasparenti con le autorit\u00e0 nazionali. Se un&#8217;autorit\u00e0 lo richiede, i fornitori sono obbligati a fornire tutte le informazioni e la documentazione necessarie per provare che il loro sistema di IA \u00e8 conforme ai requisiti legali.\u00a0<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-ecco-cosa-devono-sapere-i-fornitori-nbsp\">Ecco cosa devono sapere i fornitori:&nbsp;<\/h3>\n\n\n\n<p>1. Fornitura di Informazioni: Su richiesta di un&#8217;autorit\u00e0 nazionale competente, i fornitori devono presentare documenti che dimostrino la conformit\u00e0 del loro sistema di IA, in una delle lingue ufficiali dell&#8217;Unione Europea determinata dallo Stato membro che fa la richiesta.&nbsp;<\/p>\n\n\n\n<p>2. Accesso ai Registri: Inoltre, se un&#8217;autorit\u00e0 lo richiede con motivazione valida, i fornitori devono permettere l&#8217;accesso ai registri generati automaticamente dal sistema di IA. Questo vale solo se tali registri sono sotto il controllo del fornitore, sia tramite un accordo contrattuale con l&#8217;utente sia per obblighi di legge[2].&nbsp;<\/p>\n\n\n\n<p>Queste misure nascono dall&#8217;esigenza di garantire che i sistemi di IA ad alto rischio siano sicuri, affidabili e non violino i diritti fondamentali delle persone. I requisiti includono la qualit\u00e0 dei set di dati, la documentazione tecnica, la trasparenza verso gli utenti, la sorveglianza umana e la sicurezza informatica&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-cosa-devono-fare-gli-operatori-di-sistemi-di-ia-ad-alto-rischio\">Cosa Devono Fare gli Operatori di Sistemi di IA ad Alto Rischio\u00a0<\/h3>\n\n\n\n<p>Gli operatori devono usare i sistemi di IA seguendo esattamente le istruzioni fornite. Questo significa che devono mettere in atto tutte le misure necessarie, sia tecniche che organizzative, per assicurarsi che l&#8217;uso del sistema sia corretto e non vada oltre quanto previsto dalle istruzioni.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-controllo-umano-nbsp\">Controllo Umano&nbsp;<\/h4>\n\n\n\n<p>Quando gli operatori hanno il controllo sul sistema di IA:&nbsp;<\/p>\n\n\n\n<p>&#8211; Devono assicurarsi che ci sia sempre una supervisione umana adeguata, come richiesto dalle nuove regole.&nbsp;<\/p>\n\n\n\n<p>&#8211; \u00c8 importante che chi si occupa della supervisione sia qualificato, ben formato e abbia a disposizione tutte le risorse necessarie per svolgere questo ruolo.&nbsp;<\/p>\n\n\n\n<p>&#8211; Devono monitorare costantemente la sicurezza informatica del sistema per prevenire eventuali rischi e aggiornarla quando necessario.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-responsabilita-e-discrezionalita-nbsp\">Responsabilit\u00e0 e Discrezionalit\u00e0&nbsp;<\/h4>\n\n\n\n<p>Gli operatori hanno la responsabilit\u00e0 di rispettare non solo queste nuove regole ma anche altre leggi dell&#8217;Unione Europea o nazionali. Inoltre, hanno la libert\u00e0 di organizzare le proprie risorse per garantire la supervisione del sistema.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-gestione-dei-dati-nbsp\">Gestione dei Dati&nbsp;<\/h4>\n\n\n\n<p>Se hanno il controllo sui dati, gli operatori devono assicurarsi che i dati utilizzati siano pertinenti e rappresentativi degli obiettivi del sistema di IA.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-monitoraggio-e-comunicazione-nbsp\">Monitoraggio e Comunicazione&nbsp;<\/h4>\n\n\n\n<p>Gli operatori devono tenere d&#8217;occhio il sistema di IA e, se scoprono che qualcosa non va o che c&#8217;\u00e8 un rischio, devono immediatamente informare il fornitore, l&#8217;importatore o il distributore e le autorit\u00e0 di vigilanza competenti e sospendere l&#8217;uso del sistema.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-conservazione-delle-registrazioni-nbsp\">Conservazione delle Registrazioni&nbsp;<\/h4>\n\n\n\n<p>Devono conservare tutte le registrazioni automatiche del sistema per almeno sei mesi, a meno che non ci siano altre norme che richiedano un periodo diverso. Questo \u00e8 essenziale per verificare eventuali malfunzionamenti o usi impropri.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-consultazione-dei-lavoratori-nbsp\">Consultazione dei Lavoratori&nbsp;<\/h4>\n\n\n\n<p>Prima di introdurre un sistema di IA ad alto rischio sul posto di lavoro, gli operatori devono discuterne con i rappresentanti dei lavoratori e informare i dipendenti interessati.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-valutazione-d-impatto-nbsp\">Valutazione d&#8217;Impatto&nbsp;<\/h4>\n\n\n\n<p>Devono utilizzare le informazioni ricevute per realizzare una valutazione d&#8217;impatto sulla protezione dei dati e pubblicarne un riassunto, considerando l&#8217;uso specifico e il contesto in cui il sistema di IA operer\u00e0.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-informazione-e-cooperazione-nbsp\">Informazione e Cooperazione&nbsp;<\/h4>\n\n\n\n<p>Se i sistemi di IA sono usati per prendere decisioni riguardanti persone fisiche, gli operatori devono informare chiaramente queste persone sull&#8217;uso del sistema e sul tipo di decisioni che potrebbero essere prese. Devono anche cooperare con le autorit\u00e0 nazionali competenti.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-i-compiti-fondamentali-per-chi-gestisce-l-intelligenza-artificiale-ad-alto-rischio-nbsp\">I Compiti Fondamentali per Chi Gestisce l&#8217;Intelligenza Artificiale ad alto rischio &nbsp;<\/h3>\n\n\n\n<p>1. Segui il Manuale&nbsp;<\/p>\n\n\n\n<p>Come ogni apparecchio elettronico viene con un libretto di istruzioni, anche per i sistemi di IA esistono delle regole d&#8217;uso. Chi li gestisce deve attenersi scrupolosamente a queste direttive, assicurandosi che tutto funzioni come dovrebbe.&nbsp;<\/p>\n\n\n\n<p>2. L&#8217;Umano al Comando&nbsp;<\/p>\n\n\n\n<p>Nonostante stiamo parlando di macchine intelligenti, \u00e8 fondamentale che ci sia sempre una persona in carne e ossa a sorvegliare. Questo supervisore deve essere non solo in gamba ma anche ben preparato, con tutte le risorse necessarie per fare il proprio lavoro.&nbsp;<\/p>\n\n\n\n<p>3. Blindare la Sicurezza&nbsp;<\/p>\n\n\n\n<p>I sistemi di IA devono essere protetti come Fort Knox. La sicurezza informatica non \u00e8 un &#8220;installa e dimentica&#8221;, ma qualcosa che deve essere controllata e aggiornata continuamente.&nbsp;<\/p>\n\n\n\n<p>4. Responsabilit\u00e0 e Libert\u00e0 Organizzativa&nbsp;<\/p>\n\n\n\n<p>Gli operatori hanno delle responsabilit\u00e0 legali da onorare, ma hanno anche la libert\u00e0 di organizzare le proprie attivit\u00e0 per garantire che tutto vada liscio.&nbsp;<\/p>\n\n\n\n<p>5. Dati in Ordine&nbsp;<\/p>\n\n\n\n<p>I dati sono il cibo preferito delle IA. Chi gestisce questi sistemi deve assicurarsi che i dati siano non solo corretti ma anche rappresentativi dello scopo per cui la macchina \u00e8 stata creata.&nbsp;<\/p>\n\n\n\n<p>6. Occhio Vigile e Pronto a Segnalare&nbsp;<\/p>\n\n\n\n<p>Chi usa questi sistemi deve tenerli sotto osservazione continua e, se qualcosa va storto, deve essere pronto a tirare il freno e avvisare le autorit\u00e0 competenti.&nbsp;<\/p>\n\n\n\n<p>7. Conserva le Prove&nbsp;<\/p>\n\n\n\n<p>Ogni azione che il sistema compie deve essere registrata e conservata per almeno sei mesi. Questo serve per dimostrare che tutto \u00e8 stato fatto per il verso giusto e per eventuali controlli futuri.&nbsp;<\/p>\n\n\n\n<p>8. Parla con chi Lavora&nbsp;<\/p>\n\n\n\n<p>Prima di mettere su un sistema di IA ad alto rischio, bisogna chiacchierare con chi rappresenta i lavoratori e informare chi sar\u00e0 interessato dall&#8217;uso del sistema.&nbsp;<\/p>\n\n\n\n<p>9. Carta canta&nbsp;<\/p>\n\n\n\n<p>Ci sono delle regole precise su come registrare chi usa i sistemi di IA, soprattutto se si parla di enti pubblici o di certe aziende.&nbsp;<\/p>\n\n\n\n<p>10. Misura l&#8217;Impatto&nbsp;<\/p>\n\n\n\n<p>\u00c8 importante valutare come il sistema di IA influenzer\u00e0 la protezione dei dati personali &nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-come-funziona-la-distribuzione-dei-sistemi-di-intelligenza-artificiale-di-alto-rischio-nbsp-nbsp\">Come Funziona la Distribuzione dei Sistemi di Intelligenza Artificiale di Alto Rischio: &nbsp;&nbsp;<\/h3>\n\n\n\n<p>Nel mondo sempre pi\u00f9 tecnologico di oggi, i sistemi di <strong>intelligenza<\/strong> <strong>artificiale<\/strong> (IA) stanno diventando sempre pi\u00f9 avanzati e, con questo, aumenta anche la necessit\u00e0 di regolamentarli per assicurare che siano sicuri per chi li usa. Per i distributori di questi sistemi, ci sono alcune regole chiave da seguire prima che possano metterli sul mercato. Ecco una spiegazione semplice di queste regole.\u00a0<\/p>\n\n\n\n<p>Controlli di Sicurezza&nbsp;<\/p>\n\n\n\n<p>Prima che un sistema di IA possa essere venduto, il distributore deve assicurarsi che il prodotto abbia il marchio CE, che dimostra che \u00e8 stato testato e rispetta gli standard europei. Inoltre, devono esserci istruzioni chiare su come usarlo e documentazione che dimostri che sia il fornitore sia l&#8217;importatore hanno fatto la loro parte secondo le regole.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-se-qualcosa-non-va-stop-alla-vendita-nbsp\">Se Qualcosa Non Va: Stop alla Vendita&nbsp;<\/h4>\n\n\n\n<p>Se il distributore scopre che c&#8217;\u00e8 qualcosa che non va nel sistema di IA, deve fermare immediatamente la vendita finch\u00e9 il problema non \u00e8 risolto.<\/p>\n\n\n\n<p> Se il sistema pu\u00f2 essere pericoloso, devono anche avvisare chi l&#8217;ha fatto o importato e le autorit\u00e0 competenti.\u00a0<\/p>\n\n\n\n<p>Durante il Trasporto: Mantenere Gli Standard&nbsp;<\/p>\n\n\n\n<p>I distributori devono assicurarsi che, mentre hanno in custodia il sistema di IA, non succeda nulla che possa comprometterne la sicurezza o la conformit\u00e0 agli standard durante lo stoccaggio o il trasporto.&nbsp;<\/p>\n\n\n\n<p>Se \u00c8 Gi\u00e0 Sul Mercato: Azioni Correttive&nbsp;<\/p>\n\n\n\n<p>Se un distributore realizza che un sistema di IA che ha gi\u00e0 venduto non rispetta gli standard, deve fare tutto il possibile per sistemare la situazione. Questo pu\u00f2 significare aggiustare il prodotto, ritirarlo dal mercato o chiedere al fornitore o all&#8217;importatore di fare queste azioni. Se il sistema \u00e8 pericoloso, devono anche informare subito le autorit\u00e0.&nbsp;<\/p>\n\n\n\n<p>Comunicazione con le Autorit\u00e0: Trasparenza&nbsp;<\/p>\n\n\n\n<p>Se le autorit\u00e0 lo chiedono, i distributori devono fornire tutte le informazioni necessarie per dimostrare che i sistemi di IA sono conformi agli standard richiesti.&nbsp;<\/p>\n\n\n\n<p>Collaborazione: Lavorare Insieme per la Sicurezza&nbsp;<\/p>\n\n\n\n<p>Infine, i distributori devono collaborare con le autorit\u00e0 nazionali per aiutare a ridurre qualsiasi rischio che i sistemi di IA potrebbero presentare.&nbsp;<\/p>\n\n\n\n<p>In breve, la sicurezza prima di tutto: prima di vendere un sistema di IA ad alto rischio, i distributori hanno una serie di controlli da effettuare e regole da seguire per assicurarsi che tutto sia a posto e sicuro per chi lo user\u00e0.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-la-nomina-del-rappresentante-autorizzato\">La Nomina del Rappresentante Autorizzato\u00a0<\/h3>\n\n\n\n<p>Ogni fornitore di sistemi di IA che non \u00e8 fisicamente presente nell&#8217;Unione Europea deve nominare un rappresentante autorizzato all&#8217;interno dell&#8217;UE. Questa persona o entit\u00e0 legale sar\u00e0 come un ponte tra il fornitore e le autorit\u00e0 europee.&nbsp;<\/p>\n\n\n\n<p>Requisiti per il Rappresentante:&nbsp;<\/p>\n\n\n\n<p>Ubicazione: Deve risiedere o avere una sede in uno degli Stati membri dell&#8217;UE dove si svolgono le attivit\u00e0 legate all&#8217;IA.&nbsp;<\/p>\n\n\n\n<p>Compiti: Il rappresentante deve essere in grado di rispondere alle richieste delle autorit\u00e0 di vigilanza e deve avere l&#8217;autorit\u00e0 di agire a nome del fornitore per assicurare che i sistemi di IA rispettino la normativa UE.&nbsp;<\/p>\n\n\n\n<p>-Documentazione: Deve essere in grado di presentare la documentazione richiesta, come la dichiarazione di conformit\u00e0 e i dettagli tecnici del sistema, in una delle lingue ufficiali dell&#8217;UE.&nbsp;<\/p>\n\n\n\n<p>Responsabilit\u00e0 del Rappresentante&nbsp;<\/p>\n\n\n\n<p>Il rappresentante autorizzato ha il compito di:&nbsp;<\/p>\n\n\n\n<p>Sorveglianza: Essere un punto di contatto per le autorit\u00e0, rispondere a domande e assistere nelle indagini relative alla conformit\u00e0 dei sistemi di IA.&nbsp;<\/p>\n\n\n\n<p>Revoca del Mandato: Se il rappresentante sospetta che il fornitore non stia rispettando le regole, pu\u00f2 terminare il proprio mandato e deve informare immediatamente le autorit\u00e0 competenti.&nbsp;<\/p>\n\n\n\n<p>Accesso alle Informazioni: Fornire alle autorit\u00e0 le informazioni e i documenti necessari per dimostrare che i sistemi di IA sono conformi alle norme UE.&nbsp;<\/p>\n\n\n\n<p>Cooperazione: Collaborare con le autorit\u00e0 per mitigare qualsiasi rischio associato ai sistemi di IA.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-obblighi-del-fornitore-nbsp\">Obblighi del Fornitore&nbsp;<\/h3>\n\n\n\n<p>Il fornitore deve dare al rappresentante autorizzato tutto il necessario per svolgere i suoi doveri. Questo include:&nbsp;<\/p>\n\n\n\n<p>&#8211; Documentazione: Assicurarsi che la documentazione tecnica sia stata redatta e che siano state effettuate le valutazioni di conformit\u00e0 richieste.&nbsp;<\/p>\n\n\n\n<p>&#8211; Comunicazione: Rispondere alle richieste delle autorit\u00e0 fornendo informazioni e accesso ai registri generati dal sistema di IA.&nbsp;<\/p>\n\n\n\n<p>&#8211; Certificazioni: Mantenere disponibili le certificazioni e la documentazione tecnica per le autorit\u00e0 competenti.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-registrazione-dei-sistemi-di-ia-nbsp\">Registrazione dei Sistemi di IA&nbsp;<\/h3>\n\n\n\n<p>Il rappresentante deve anche assicurarsi che i sistemi di IA siano registrati correttamente secondo le regole dell&#8217;UE, garantendo che tutte le informazioni fornite siano accurate e aggiornate.&nbsp;<\/p>\n\n\n\n<p>In breve, queste normative sono state messe in atto per garantire che i sistemi di IA ad alto rischio siano sicuri, affidabili e trasparenti, proteggendo cos\u00ec i cittadini e il mercato dell&#8217;Unione Europea.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-responsabilita-degli-importatori-per-sistemi-di-ia-ad-alto-rischio-nbsp\">Responsabilit\u00e0 degli Importatori per Sistemi di IA ad Alto Rischio&nbsp;<\/h3>\n\n\n\n<p>Prima di immettere sul mercato un sistema di <strong>intelligenza<\/strong> <strong>artificiale<\/strong> (IA) ad alto rischio, gli importatori devono assicurarsi della conformit\u00e0 del sistema con il regolamento UE. Devono verificare che:\u00a0<\/p>\n\n\n\n<p>1. Valutazione della Conformit\u00e0: La procedura di valutazione della conformit\u00e0 prevista dall&#8217;articolo 43 sia stata effettuata dal fornitore.&nbsp;<\/p>\n\n\n\n<p>2. Documentazione Tecnica: Il fornitore abbia preparato la documentazione tecnica in linea con l&#8217;articolo 11 e l&#8217;allegato IV.&nbsp;<\/p>\n\n\n\n<p>3. Marchio di Conformit\u00e0: Il sistema di IA rechi il marchio CE che attesta la conformit\u00e0 e sia accompagnato dalla documentazione e dalle istruzioni d&#8217;uso necessarie.&nbsp;<\/p>\n\n\n\n<p>4. Rappresentante Autorizzato: Se necessario, il fornitore abbia nominato un rappresentante autorizzato secondo quanto stabilito dall&#8217;articolo 25, paragrafo 1[1].&nbsp;<\/p>\n\n\n\n<p>Se un importatore sospetta che il sistema di IA non sia conforme, non deve immetterlo sul mercato fino a quando non viene assicurata la conformit\u00e0. Inoltre, se il sistema di IA ad alto rischio presenta rischi come specificato nell&#8217;articolo 65, paragrafo 1, l&#8217;importatore \u00e8 tenuto a informare sia il fornitore che le autorit\u00e0 di sorveglianza del mercato&nbsp;<\/p>\n\n\n\n<p>Gli importatori sono anche obbligati a indicare chiaramente il proprio nome o marchio commerciale e un indirizzo per i contatti sul prodotto e\/o sull&#8217;imballaggio o documentazione accompagnatoria. Inoltre, devono assicurare che le condizioni di conservazione o trasporto non compromettano la conformit\u00e0 del sistema di IA&nbsp;<\/p>\n\n\n\n<p>In caso di richiesta da parte delle autorit\u00e0 competenti, gli importatori devono fornire tutte le informazioni e documentazione necessarie per dimostrare la conformit\u00e0 del sistema di IA, compreso l&#8217;accesso ai log del sistema, se sotto il controllo del fornitore come indicato nell&#8217;articolo 20&nbsp;<\/p>\n\n\n\n<p>Infine, gli importatori devono cooperare con le autorit\u00e0 nazionali per qualsiasi azione volta a mitigare i rischi derivanti dal sistema di IA ad alto rischio.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-requisiti-per-i-fornitori-di-modelli-di-fondazione-ia-nbsp\">Requisiti per i Fornitori di Modelli di Fondazione IA&nbsp;<\/h3>\n\n\n\n<p>Quando un fornitore intende rendere disponibile un modello di fondazione IA, che sia autonomo, parte di un sistema pi\u00f9 ampio, o distribuito gratuitamente e open source, deve assicurarsi che questo sia conforme a specifici requisiti normativi. Questi requisiti valgono a prescindere dal canale di distribuzione scelto per il modello.&nbsp;<\/p>\n\n\n\n<p>&#8211; Conformit\u00e0: Prima di lanciare un modello di fondazione sul mercato o di metterlo in servizio, il fornitore deve garantirne la conformit\u00e0 con la legislazione vigente[1].&nbsp;<\/p>\n\n\n\n<p>&#8211; Documentazione Tecnica: Il fornitore \u00e8 tenuto a mantenere una documentazione tecnica dettagliata per un periodo di 10 anni dopo la messa sul mercato del modello. Questa documentazione deve essere resa disponibile alle autorit\u00e0 nazionali competenti su richiesta[2].&nbsp;<\/p>\n\n\n\n<p>&#8211; Trasparenza e Informazioni: I fornitori devono assicurare che i set di dati utilizzati siano di alta qualit\u00e0 e che tutte le informazioni necessarie siano trasparenti e facilmente accessibili agli utenti[3].&nbsp;<\/p>\n\n\n\n<p>&#8211; Sorveglianza e Sicurezza: Deve essere garantita una sorveglianza umana adeguata e le misure necessarie per assicurare la robustezza, l&#8217;accuratezza e la sicurezza informatica del sistema[2].&nbsp;<\/p>\n\n\n\n<p>&#8211; Impatto Ambientale e Sociale: \u00c8 necessario che i fornitori considerino l&#8217;impatto ambientale e sociale dei loro modelli, seguendo le direttive europee in materia&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-cosa-non-e-permesso\">Cosa Non \u00c8 Permesso<\/h3>\n\n\n\n<p>Nel mondo <strong>dell&#8217;intelligenza<\/strong> <strong>artificiale<\/strong> (IA), ci sono alcune applicazioni che sono state definite come non accettabili o addirittura illegali. Questo per proteggere la privacy, la sicurezza e i diritti delle persone. Ecco le categorie di sistemi di IA che sono sotto il mirino:\u00a0<\/p>\n\n\n\n<p>1. Identificazione Biometrica e Categorizzazione di Persone:&nbsp;<\/p>\n\n\n\n<p>&nbsp;&nbsp; &#8211; Sistemi che riconoscono le persone in tempo reale o dopo, da remoto, tramite biometria.&nbsp;<\/p>\n\n\n\n<p>2. Infrastrutture Critiche&nbsp;<\/p>\n\n\n\n<p>&nbsp;&nbsp; &#8211; IA per il controllo del traffico stradale e per la gestione di servizi essenziali come acqua, gas, riscaldamento ed elettricit\u00e0.&nbsp;<\/p>\n\n\n\n<p>3. Istruzione e Formazione Professionale:&nbsp;<\/p>\n\n\n\n<p>&nbsp;&nbsp; &#8211; IA per decidere chi entra in una scuola o per valutare gli studenti.&nbsp;<\/p>\n\n\n\n<p>4. Lavoro:&nbsp;<\/p>\n\n\n\n<p>&nbsp;&nbsp; &#8211; IA usata per reclutamento, selezione, promozione o monitoraggio dei lavoratori.&nbsp;<\/p>\n\n\n\n<p>5. Servizi Pubblici e Privati:&nbsp;<\/p>\n\n\n\n<p>&nbsp;&nbsp; &#8211; IA che decide l&#8217;accesso a servizi pubblici essenziali o valuta la solvibilit\u00e0 finanziaria delle persone.&nbsp;<\/p>\n\n\n\n<p>6. Forze dell&#8217;Ordine:&nbsp;<\/p>\n\n\n\n<p>&nbsp;&nbsp; &#8211; IA per valutare il rischio di criminalit\u00e0 o recidiva, poligrafi, rilevamento di stati emotivi, identificazione di deep fake, valutazione dell&#8217;affidabilit\u00e0 delle prove, profilazione per indagini penali, e analisi criminali che cercano schemi nei dati.&nbsp;<\/p>\n\n\n\n<p>7. Gestione della Migrazione e Controllo delle Frontiere:&nbsp;<\/p>\n\n\n\n<p>&nbsp;&nbsp; &#8211; IA usata come poligrafi, per valutare rischi legati all&#8217;immigrazione o alla salute, autenticazione di documenti di viaggio, e assistenza nelle domande di asilo o permessi di soggiorno.&nbsp;<\/p>\n\n\n\n<p>8. Amministrazione della Giustizia e Processi Democratici:&nbsp;<\/p>\n\n\n\n<p>&nbsp;&nbsp; &#8211; IA che assiste nell&#8217;interpretazione dei fatti e della legge durante processi giudiziari.&nbsp;<\/p>\n\n\n\n<p>Queste restrizioni sono state messe in atto per evitare abusi dell&#8217;IA che potrebbero portare a discriminazioni, violazioni della privacy o errori giudiziari. L&#8217;idea \u00e8 quella di mantenere il controllo umano su decisioni critiche che riguardano i diritti fondamentali delle persone.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-la-classificazione-dei-rischi-e-la-regolamentazione-nbsp\">La Classificazione dei Rischi e la Regolamentazione&nbsp;<\/h3>\n\n\n\n<p>L&#8217;Unione Europea ha definito delle linee guida molto chiare per i sistemi di <strong>intelligenza<\/strong> <strong>artificiale<\/strong> (IA), categorizzando alcuni di questi come &#8220;ad alto rischio&#8221; in base al loro potenziale impatto sulla societ\u00e0 e sull&#8217;ambiente. In particolare, l&#8217;allegato III del regolamento UE identifica specifiche aree e casi d&#8217;uso in cui l&#8217;IA potrebbe comportare rischi significativi.\u00a0<\/p>\n\n\n\n<p>-Alto Rischio&nbsp;<\/p>\n\n\n\n<p>: Un sistema di IA \u00e8 considerato &#8220;ad alto rischio&#8221; se pu\u00f2 causare danni significativi alla salute, alla sicurezza o ai diritti fondamentali delle persone. Ad esempio, questo pu\u00f2 includere IA che prendono decisioni riguardanti la libert\u00e0 personale, come quelle utilizzate per la valutazione del credito o per la sorveglianza[1].&nbsp;<\/p>\n\n\n\n<p>-Rischio Ambientale: &nbsp;<\/p>\n\n\n\n<p>Se un sistema di IA incluso nell&#8217;allegato III, punto 2, ha il potenziale per causare danni significativi all&#8217;ambiente, viene anch&#8217;esso classificato come &#8220;ad alto rischio&#8221;. Questo potrebbe riguardare, per esempio, sistemi di IA usati nella gestione delle risorse naturali o nell&#8217;agricoltura intensiva[2].&nbsp;<\/p>\n\n\n\n<p>&#8211; Risultati Accessori:&nbsp;<\/p>\n\n\n\n<p>&nbsp;Un sistema di IA non \u00e8 considerato ad alto rischio se i suoi risultati sono secondari rispetto alle decisioni o azioni che saranno prese e non rappresentano un rischio significativo. Un esempio potrebbe essere un IA che fornisce raccomandazioni non vincolanti&nbsp;<\/p>\n\n\n\n<p>Regolamentazione Futura: &nbsp;<\/p>\n\n\n\n<p>La Commissione europea deve specificare entro un anno dall&#8217;entrata in vigore del regolamento le circostanze in cui i risultati dei sistemi di IA possono essere considerati accessori. Questo chiarimento aiuter\u00e0 a determinare con maggiore precisione quali sistemi rientrano nella categoria ad alto rischio.<\/p>\n\n\n\n<p>In conclusione, il regolamento europeo sull&#8217;IA mira a stabilire un equilibrio tra il promuovere l&#8217;innovazione tecnologica e proteggere i cittadini da possibili danni. Con l&#8217;adozione di atti di esecuzione, si cerca di fornire una guida chiara su come i sistemi di IA dovrebbero essere valutati e regolamentati, assicurando che la tecnologia sia utilizzata in modo responsabile e sicuro.\u00a0<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-meccanismo-di-revisione-e-aggiornamento-continuo\">meccanismo di revisione e aggiornamento continuo<\/h3>\n\n\n\n<p>L&#8217;articolo 84 del regolamento europeo <strong>sull&#8217;intelligenza<\/strong> <strong>artificiale<\/strong> (IA) stabilisce un meccanismo di revisione e aggiornamento continuo per assicurare che le norme siano sempre allineate con l&#8217;evoluzione tecnologica e le esigenze della societ\u00e0.\u00a0<\/p>\n\n\n\n<p>&nbsp;Valutazione Annuale: La Commissione Europea si impegna a rivedere ogni anno gli elenchi delle applicazioni di IA considerate ad alto rischio, delle pratiche proibite e delle richieste di trasparenza, dopo aver consultato l&#8217;Ufficio AI. Questo processo \u00e8 vitale per mantenere aggiornato il regolamento in base ai rapidi sviluppi nel campo dell&#8217;IA[&nbsp;<\/p>\n\n\n\n<p>-Relazione Biennale: Ogni due anni, la Commissione e l&#8217;Ufficio AI devono presentare una relazione di valutazione complessiva del regolamento al Parlamento Europeo e al Consiglio. Queste relazioni sono pubbliche e forniscono un&#8217;analisi approfondita dello stato dell&#8217;IA nell&#8217;UE, compresi gli aspetti come risorse, sanzioni applicate e progressi nella ricerca&nbsp;<\/p>\n\n\n\n<p>-Focalizzazione Specifica: Le relazioni biennali si concentrano in modo particolare su vari aspetti cruciali come le risorse a disposizione delle autorit\u00e0 nazionali, l&#8217;efficacia delle sanzioni, lo sviluppo di standard armonizzati per l&#8217;IA, gli investimenti nel settore, la competitivit\u00e0 dell&#8217;IA europea rispetto a quella internazionale, l&#8217;impatto ambientale dei sistemi di IA, l&#8217;attuazione del piano coordinato sull&#8217;IA e l&#8217;aggiornamento dei requisiti per la sostenibilit\u00e0 dell&#8217;IA&nbsp;<\/p>\n\n\n\n<p>-Valutazione dell&#8217;Ufficio AI: Entro due anni dall&#8217;applicazione del regolamento, la Commissione valuter\u00e0 anche l&#8217;efficacia dell&#8217;Ufficio AI, verificando se dispone delle competenze e delle risorse necessarie per adempiere i suoi compiti e se sia opportuno potenziare il suo ruolo&nbsp;<\/p>\n\n\n\n<p>In sostanza, l&#8217;articolo 84 si assicura che il regolamento europeo sull&#8217;IA non sia statico ma evolva in modo responsabile insieme alle tecnologie che intende regolare.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-obblighi-di-trasparenza-per-i-sistemi-di-intelligenza-artificiale-secondo-l-articolo-52-nbsp\">Obblighi di Trasparenza per i Sistemi di Intelligenza Artificiale secondo l&#8217;Articolo 52&nbsp;<\/h3>\n\n\n\n<p>L&#8217;Articolo 52 del regolamento dell&#8217;Unione Europea si concentra sugli obblighi di trasparenza che i fornitori di sistemi di <strong>intelligenza<\/strong> <strong>artificiale<\/strong> (IA) devono rispettare. Ecco una riscrittura semplificata dei principali punti:\u00a0<\/p>\n\n\n\n<p>Interazione con Sistemi di IA&nbsp;<\/p>\n\n\n\n<p>Quando una persona interagisce con un sistema di IA, deve essere informata chiaramente e tempestivamente che sta avvenendo tale interazione, a meno che non sia gi\u00e0 ovvio dal contesto. Le informazioni fornite dovrebbero includere:&nbsp;<\/p>\n\n\n\n<p>&#8211; Che si sta interagendo con un sistema di IA.&nbsp;<\/p>\n\n\n\n<p>&#8211; Quali funzioni il sistema di IA svolge.&nbsp;<\/p>\n\n\n\n<p>&#8211; Se c&#8217;\u00e8 una supervisione umana.&nbsp;<\/p>\n\n\n\n<p>&#8211; Chi \u00e8 responsabile delle decisioni prese dal sistema.&nbsp;<\/p>\n\n\n\n<p>&#8211; Come la persona pu\u00f2 contestare o richiedere spiegazioni sulle decisioni prese dall&#8217;IA.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-sistemi-di-riconoscimento-emozionale-e-biometrico-nbsp\">Sistemi di Riconoscimento Emozionale e Biometrico&nbsp;<\/h4>\n\n\n\n<p>I fornitori di sistemi IA che riconoscono le emozioni o attributi biometrici devono:&nbsp;<\/p>\n\n\n\n<p>&#8211; Informare chiaramente e tempestivamente le persone che i loro dati biometrici verranno trattati.&nbsp;<\/p>\n\n\n\n<p>&#8211; Ottenere il consenso delle persone prima di iniziare il trattamento dei dati.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-contenuti-generati-o-manipolati-deep-fake-nbsp\">Contenuti Generati o Manipolati (Deep Fake)&nbsp;<\/h4>\n\n\n\n<p>Quando si utilizzano sistemi IA per creare o modificare contenuti che potrebbero sembrare reali (come i deep fake), i fornitori devono:&nbsp;<\/p>\n\n\n\n<p>&#8211; Indicare chiaramente che il contenuto \u00e8 stato generato o modificato artificialmente.&nbsp;<\/p>\n\n\n\n<p>&#8211; Quando possibile, identificare chi ha creato o modificato il contenuto.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-eccezioni-nbsp\">Eccezioni&nbsp;<\/h4>\n\n\n\n<p>Questi obblighi di trasparenza non si applicano nei seguenti casi:&nbsp;<\/p>\n\n\n\n<p>&#8211; I sistemi di IA sono usati per scopi legali come la prevenzione o l&#8217;indagine su reati.&nbsp;<\/p>\n\n\n\n<p>&#8211; I sistemi di IA sono necessari per esercitare la libert\u00e0 di espressione o per scopi artistici o scientifici, a condizione che ci siano garanzie per i diritti altrui.&nbsp;<\/p>\n\n\n\n<p>&#8211; Se il contenuto \u00e8 parte di un&#8217;opera chiaramente satirica, artistica o fantasiosa, l&#8217;obbligo si limita a indicare la presenza di contenuti generati o manipolati.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-informazioni-accessibili-nbsp\">Informazioni Accessibili&nbsp;<\/h4>\n\n\n\n<p>Le informazioni dovrebbero essere fornite in modo che siano accessibili a tutti, inclusi i vulnerabili come disabili e bambini, e dovrebbero includere come le persone possono segnalare problemi o intervenire se necessario.\u00a0<\/p>\n\n\n\n<p>In sintesi, l&#8217;articolo 52 mira a garantire che le persone siano consapevoli quando interagiscono con sistemi di IA e comprendano i loro diritti in relazione a tali interazioni.&nbsp;<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-conclusioni\"><strong>Conclusioni <\/strong><\/h2>\n\n\n\n<p>Nel cuore pulsante dell&#8217;Unione Europea, una sfida senza precedenti si profila all&#8217;orizzonte: quella di coniugare il fulmineo progresso tecnologico con i valori etici e le garanzie di sicurezza richieste da una societ\u00e0 sempre pi\u00f9 digitalizzata. La Spagna, con la sua recente proposta, si fa portavoce di un movimento che cerca di armonizzare le esigenze del mercato con le istanze etiche, delineando un potenziale percorso verso l&#8217;equilibrio desiderato.<\/p>\n\n\n\n<p>Il dibattito in corso non \u00e8 solo un confronto di idee ma un vero e proprio crocevia che determiner\u00e0 il futuro dell&#8217;IA, incidendo profondamente sul tessuto tecnologico mondiale. Le scelte di oggi, infatti, sono le pietre angolari su cui si costruir\u00e0 il domani digitale.<\/p>\n\n\n\n<p>Mentre gli occhi del mondo sono puntati sull&#8217;Europa, l&#8217;UE si prepara a scrivere una pagina storica nella regolamentazione <strong>dell&#8217;intelligenza<\/strong> <strong>artificiale<\/strong>. Il 6 dicembre non rappresenta soltanto un giorno nel calendario ma simboleggia l&#8217;aspirazione europea a essere faro di principi democratici e tutela dei diritti nell&#8217;era digitale.<\/p>\n\n\n\n<p>L&#8217;iniziativa europea \u00e8 un deciso passo avanti verso <strong>un&#8217;intelligenza<\/strong> <strong>artificiale<\/strong> responsabile e trasparente, che non sacrifichi i diritti umani sull&#8217;altare dell&#8217;innovazione. Questa non \u00e8 solo una questione di regolamentazione ma di visione: l&#8217;Europa intende posizionarsi come guida nella creazione di uno standard etico globale per l&#8217;IA, in un mondo sempre pi\u00f9 interconnesso e dipendente dalle macchine intelligenti.<\/p>\n\n\n\n<p>Con i nuovi regolamenti proposti, l&#8217;UE non si limita a delineare confini tecnologici ma si propone come custode di un futuro in cui la tecnologia \u00e8 al servizio dell&#8217;uomo, e non il contrario. In questo contesto dinamico e in rapida evoluzione, l&#8217;Europa si dimostra non solo consapevole delle sue responsabilit\u00e0 ma anche pronta a guidare il cammino verso <strong>un&#8217;intelligenza<\/strong> <strong>artificiale<\/strong> che sia equa, sicura e benefica per tutti.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" src=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/avv.-bozzo-1-1024x576.jpg\" alt=\"\" class=\"wp-image-4242\" \/><\/figure>\n","protected":false},"excerpt":{"rendered":"<p>L&#8217;Alba di una Nuova Era Normativa per l&#8217;IA\u00a0 L&#8217;Unione Europea sta per adottare una legislazione all&#8217;avanguardia che avr\u00e0 un impatto significativo sul futuro dell&#8217;intelligenza artificiale (IA).\u00a0 &nbsp;Questa legge, la prima del suo genere a livello mondiale, si trova attualmente nella fase finale delle negoziazioni e mira a stabilire un quadro normativo per i modelli di [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":4734,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[44,1],"tags":[],"class_list":["post-4732","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-diritto-rovescio","category-non-categorizzato"],"yoast_head":"<!-- This site is optimized with the Yoast SEO Premium plugin v23.3 (Yoast SEO v25.6) - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>AI ACT: esserci o non esserci ? - PB Consulting<\/title>\n<meta name=\"description\" content=\"intelligenza artificiale diritto: scopri come l&#039;Unione Europea sta guidando l&#039;innovazione con l&#039;Artificial Intelligence Act: un passo rivoluzionario nella creazione di un quadro normativo per l&#039;intelligenza artificiale avanzata. Rimani aggiornato sulle ultime tendenze legislative che plasmeranno il futuro dell&#039;IA.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-esserci-o-non-esserci\/\" \/>\n<meta property=\"og:locale\" content=\"en_US\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"AI ACT: esserci o non esserci ?\" \/>\n<meta property=\"og:description\" content=\"intelligenza artificiale diritto: scopri come l&#039;Unione Europea sta guidando l&#039;innovazione con l&#039;Artificial Intelligence Act: un passo rivoluzionario nella creazione di un quadro normativo per l&#039;intelligenza artificiale avanzata. Rimani aggiornato sulle ultime tendenze legislative che plasmeranno il futuro dell&#039;IA.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-esserci-o-non-esserci\/\" \/>\n<meta property=\"og:site_name\" content=\"PB Consulting\" \/>\n<meta property=\"article:author\" content=\"https:\/\/www.facebook.com\/alberto.bozzo.9\" \/>\n<meta property=\"article:published_time\" content=\"2023-12-03T20:51:52+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2023-12-03T20:51:55+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/12\/8d4ee605-309a-4457-b010-25c37a56a5d0.jpeg\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"1024\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Alberto Bozzo\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Alberto Bozzo\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"55 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-esserci-o-non-esserci\/\",\"url\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-esserci-o-non-esserci\/\",\"name\":\"AI ACT: esserci o non esserci ? - PB Consulting\",\"isPartOf\":{\"@id\":\"https:\/\/www.consultingpb.com\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-esserci-o-non-esserci\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-esserci-o-non-esserci\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/12\/8d4ee605-309a-4457-b010-25c37a56a5d0.jpeg\",\"datePublished\":\"2023-12-03T20:51:52+00:00\",\"dateModified\":\"2023-12-03T20:51:55+00:00\",\"author\":{\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50\"},\"description\":\"intelligenza artificiale diritto: scopri come l'Unione Europea sta guidando l'innovazione con l'Artificial Intelligence Act: un passo rivoluzionario nella creazione di un quadro normativo per l'intelligenza artificiale avanzata. Rimani aggiornato sulle ultime tendenze legislative che plasmeranno il futuro dell'IA.\",\"breadcrumb\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-esserci-o-non-esserci\/#breadcrumb\"},\"inLanguage\":\"en-US\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-esserci-o-non-esserci\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-esserci-o-non-esserci\/#primaryimage\",\"url\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/12\/8d4ee605-309a-4457-b010-25c37a56a5d0.jpeg\",\"contentUrl\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/12\/8d4ee605-309a-4457-b010-25c37a56a5d0.jpeg\",\"width\":1024,\"height\":1024},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-esserci-o-non-esserci\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/www.consultingpb.com\/en\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"AI ACT: esserci o non esserci ?\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/www.consultingpb.com\/#website\",\"url\":\"https:\/\/www.consultingpb.com\/\",\"name\":\"PB Consulting\",\"description\":\"\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/www.consultingpb.com\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"en-US\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50\",\"name\":\"Alberto Bozzo\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g\",\"caption\":\"Alberto Bozzo\"},\"sameAs\":[\"https:\/\/www.consultingpb.com\/\",\"https:\/\/www.facebook.com\/alberto.bozzo.9\",\"https:\/\/www.instagram.com\/ab_dirittorovescio\/\",\"https:\/\/www.linkedin.com\/in\/alberto-bozzo-57982b63\/\"],\"url\":\"https:\/\/www.consultingpb.com\/en\/blog\/author\/alberto\/\"}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"AI ACT: esserci o non esserci ? - PB Consulting","description":"intelligenza artificiale diritto: scopri come l'Unione Europea sta guidando l'innovazione con l'Artificial Intelligence Act: un passo rivoluzionario nella creazione di un quadro normativo per l'intelligenza artificiale avanzata. Rimani aggiornato sulle ultime tendenze legislative che plasmeranno il futuro dell'IA.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-esserci-o-non-esserci\/","og_locale":"en_US","og_type":"article","og_title":"AI ACT: esserci o non esserci ?","og_description":"intelligenza artificiale diritto: scopri come l'Unione Europea sta guidando l'innovazione con l'Artificial Intelligence Act: un passo rivoluzionario nella creazione di un quadro normativo per l'intelligenza artificiale avanzata. Rimani aggiornato sulle ultime tendenze legislative che plasmeranno il futuro dell'IA.","og_url":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-esserci-o-non-esserci\/","og_site_name":"PB Consulting","article_author":"https:\/\/www.facebook.com\/alberto.bozzo.9","article_published_time":"2023-12-03T20:51:52+00:00","article_modified_time":"2023-12-03T20:51:55+00:00","og_image":[{"width":1024,"height":1024,"url":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/12\/8d4ee605-309a-4457-b010-25c37a56a5d0.jpeg","type":"image\/jpeg"}],"author":"Alberto Bozzo","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Alberto Bozzo","Est. reading time":"55 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-esserci-o-non-esserci\/","url":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-esserci-o-non-esserci\/","name":"AI ACT: esserci o non esserci ? - PB Consulting","isPartOf":{"@id":"https:\/\/www.consultingpb.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-esserci-o-non-esserci\/#primaryimage"},"image":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-esserci-o-non-esserci\/#primaryimage"},"thumbnailUrl":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/12\/8d4ee605-309a-4457-b010-25c37a56a5d0.jpeg","datePublished":"2023-12-03T20:51:52+00:00","dateModified":"2023-12-03T20:51:55+00:00","author":{"@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50"},"description":"intelligenza artificiale diritto: scopri come l'Unione Europea sta guidando l'innovazione con l'Artificial Intelligence Act: un passo rivoluzionario nella creazione di un quadro normativo per l'intelligenza artificiale avanzata. Rimani aggiornato sulle ultime tendenze legislative che plasmeranno il futuro dell'IA.","breadcrumb":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-esserci-o-non-esserci\/#breadcrumb"},"inLanguage":"en-US","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-esserci-o-non-esserci\/"]}]},{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-esserci-o-non-esserci\/#primaryimage","url":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/12\/8d4ee605-309a-4457-b010-25c37a56a5d0.jpeg","contentUrl":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/12\/8d4ee605-309a-4457-b010-25c37a56a5d0.jpeg","width":1024,"height":1024},{"@type":"BreadcrumbList","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-esserci-o-non-esserci\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/www.consultingpb.com\/en\/"},{"@type":"ListItem","position":2,"name":"AI ACT: esserci o non esserci ?"}]},{"@type":"WebSite","@id":"https:\/\/www.consultingpb.com\/#website","url":"https:\/\/www.consultingpb.com\/","name":"PB Consulting","description":"","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.consultingpb.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"en-US"},{"@type":"Person","@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50","name":"Alberto Bozzo","image":{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g","caption":"Alberto Bozzo"},"sameAs":["https:\/\/www.consultingpb.com\/","https:\/\/www.facebook.com\/alberto.bozzo.9","https:\/\/www.instagram.com\/ab_dirittorovescio\/","https:\/\/www.linkedin.com\/in\/alberto-bozzo-57982b63\/"],"url":"https:\/\/www.consultingpb.com\/en\/blog\/author\/alberto\/"}]}},"_links":{"self":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/4732","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/comments?post=4732"}],"version-history":[{"count":2,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/4732\/revisions"}],"predecessor-version":[{"id":4736,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/4732\/revisions\/4736"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/media\/4734"}],"wp:attachment":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/media?parent=4732"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/categories?post=4732"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/tags?post=4732"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}