{"id":3860,"date":"2023-11-04T20:36:11","date_gmt":"2023-11-04T20:36:11","guid":{"rendered":"https:\/\/www.consultingpb.com\/?p=3860"},"modified":"2023-11-04T20:41:26","modified_gmt":"2023-11-04T20:41:26","slug":"ai-act-il-parere-del-garante-europeo","status":"publish","type":"post","link":"https:\/\/www.consultingpb.com\/en\/blog\/diritto-rovescio\/ai-act-il-parere-del-garante-europeo\/","title":{"rendered":"AI Act: il parere del Garante europeo"},"content":{"rendered":"\n<figure class=\"wp-block-image size-large is-resized\"><img fetchpriority=\"high\" decoding=\"async\" width=\"1024\" height=\"1024\" src=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/DIRITTO-ROVESCIO-3-1024x1024.png\" alt=\"\" class=\"wp-image-3606\" style=\"aspect-ratio:1;width:339px;height:auto\" srcset=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/DIRITTO-ROVESCIO-3-1024x1024.png 1024w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/DIRITTO-ROVESCIO-3-300x300.png 300w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/DIRITTO-ROVESCIO-3-150x150.png 150w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/DIRITTO-ROVESCIO-3-768x768.png 768w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/DIRITTO-ROVESCIO-3-480x480.png 480w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/DIRITTO-ROVESCIO-3.png 1080w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-introduzione\"><strong>Introduzione<\/strong><\/h3>\n\n\n\n<p><strong>Il Garante europeo <\/strong>della protezione dei dati personali (GEPD) ha recentemente pubblicato un <a href=\"https:\/\/edps.europa.eu\/system\/files\/2023-10\/2023-0137_d3269_opinion_en.pdf\">parere<\/a> d&#8217;iniziativa sulla legge europea in materia di intelligenza artificiale (IA). Il documento contiene importanti raccomandazioni per lo sviluppo e l&#8217;uso dei sistemi di IA nell&#8217;Unione Europea, con l&#8217;obiettivo di proteggere i diritti fondamentali delle persone.<\/p>\n\n\n\n<p>Tra le principali raccomandazioni del Garante, <strong>vi \u00e8 l&#8217;importanza di vietare l&#8217;uso di sistemi di IA che comportino rischi inaccettabili per le persone e i loro diritti fondamentali.<\/strong> Inoltre, il GEPD si \u00e8 soffermato sulla sua designazione in quanto ente preposto e autorit\u00e0 di sorveglianza del mercato per valutare la conformit\u00e0 dei sistemi di IA ad alto rischio sviluppati o utilizzati dalle istituzioni, organi, uffici e agenzie dell&#8217;UE.<\/p>\n\n\n\n<p>Il Garante ha inoltre sottolineato la necessit\u00e0 di disporre di risorse finanziarie e umane adeguate per svolgere il suo ruolo di garante dell&#8217;IA. Ha anche chiesto che i suoi compiti e i suoi poteri siano chiariti nell&#8217;ambito della legge sull&#8217;IA.<\/p>\n\n\n\n<p>Un altro punto importante toccato dal GEPD riguarda il diritto di presentare un <strong>reclamo<\/strong> a un&#8217;autorit\u00e0 competente nel caso in cui i fornitori e gli utenti di sistemi di IA violino la legge sull&#8217;IA. Secondo il Garante, non solo dovrebbe essere riconosciuto tale diritto alle persone interessate all&#8217;uso dei sistemi di IA, ma il regolamento dovrebbe anche prevedere esplicitamente la competenza del GEPD a ricevere tali reclami.<\/p>\n\n\n\n<p>Il Garante ha accolto con favore la creazione dell&#8217;Ufficio europeo dell&#8217;IA e ne sostiene l&#8217;obiettivo di centralizzare l&#8217;applicazione della legge in determinati casi e di armonizzarne l&#8217;applicazione in tutti gli Stati membri dell&#8217;UE. Inoltre, il GEPD si \u00e8 dichiarato pronto a svolgere indagini congiunte su un piano di parit\u00e0 con le autorit\u00e0 di controllo nazionali e a partecipare alle altre attivit\u00e0 dell&#8217;Ufficio IA. A tal proposito, il Garante chiede al co-legislatore di attribuirgli il diritto di voto come membro a pieno titolo del consiglio di amministrazione dell&#8217;Ufficio AI.<\/p>\n\n\n\n<p>L&#8217;evoluzione dell&#8217;intelligenza artificiale (IA) \u00e8 in costante progresso, e le leggi stanno cercando di tenere il passo con questa rapida innovazione. Tuttavia, la velocit\u00e0 dello sviluppo tecnologico ha sempre un passo avanti rispetto alla regolamentazione.<\/p>\n\n\n\n<p>Il recente draft del regolamento europeo sull&#8217;intelligenza artificiale, noto come AI Act, \u00e8 un esempio lampante di questo fenomeno. Previsto per entrare in vigore nell&#8217;estate del 2024, l&#8217;AI Act sta ancora attraversando un lungo percorso legislativo, con possibili modifiche entro la fine dell&#8217;anno. <\/p>\n\n\n\n<p>Una volta approvato definitivamente, sar\u00e0 necessario dare ai Paesi membri un termine, forse superiore all&#8217;anno, per prepararsi a dare diretta applicazione alle sue regole. Di conseguenza, \u00e8 probabile che le nuove regole non diventeranno legge effettiva prima del 2025.<\/p>\n\n\n\n<p>Nel frattempo, lo sviluppo e la diffusione dell&#8217;IA sui mercati globali non si fermeranno in attesa di questa data. <\/p>\n\n\n\n<p>Questa situazione presenta due conseguenze significative. La prima \u00e8 che le nuove regole, quando entreranno in vigore, potrebbero non essere in grado di governare applicazioni di IA che oggi non sono ancora emerse o non sembrano meritevoli di un intervento normativo specifico.<\/p>\n\n\n\n<p>Un esempio \u00e8 rappresentato dalle intelligenze artificiali generative, come la Chat Gpt, che non erano state originariamente considerate nella proposta iniziale dell&#8217;AI Act. Questa discrepanza temporale tra i ritmi della produzione regolamentare e quelli dello sviluppo tecnologico rappresenta una sfida significativa per la regolamentazione dell&#8217;IA.<\/p>\n\n\n\n<p>La seconda conseguenza riguarda la necessit\u00e0 di trovare un modo di governare l&#8217;intelligenza artificiale nei prossimi mesi o anni. Se non si trovano soluzioni adeguate, c&#8217;\u00e8 il rischio che la tecnologia diventi essa stessa regolamentazione, plasmando le nostre vite pi\u00f9 delle regole tradizionali.<\/p>\n\n\n\n<p>\u00c8 gi\u00e0 accaduto con Internet: molti dei nostri comportamenti quotidiani nel mondo digitale sono governati dalla tecnologia pi\u00f9 che dalle leggi. Le regole imposte dalla tecnologia nascono nei laboratori tecnologici o negli studi legali delle aziende e sono adottate per servire interessi privati, a differenza delle leggi che dovrebbero servire l&#8217;interesse pubblico.<\/p>\n\n\n\n<p>Per mitigare questo rischio, l&#8217;Unione Europea sta proponendo <strong>l&#8217;AI Pact,<\/strong> un esercizio che incoraggia i giganti tecnologici dell&#8217;IA a rispettare le regole dell&#8217;<strong>AI Act <\/strong>prima della sua applicazione diretta. Questa sorta di pre-applicazione volontaria potrebbe aiutare a guidare lo sviluppo e l&#8217;uso dell&#8217;IA in una direzione sostenibile.<\/p>\n\n\n\n<p><em>Tuttavia, l&#8217;efficacia dell&#8217;AI Pact \u00e8 ancora da verificare. Sar\u00e0 interessante vedere quanti protagonisti globali dell&#8217;IA aderiranno, e quanto tempo impiegheranno per conformarsi alle regole. Inoltre, la vigilanza su un esercizio basato sulla volontariet\u00e0 potrebbe essere debole.<\/em><\/p>\n\n\n\n<p>Nel frattempo ll Garante europeo della protezione dei dati (GEPD) ha pubblicato un <a href=\"https:\/\/edps.europa.eu\/system\/files\/2023-10\/2023-0137_d3269_opinion_en.pdf\">parere<\/a> riguardante la proposta di legge sull&#8217;intelligenza artificiale dell&#8217;UE, fornendo raccomandazioni ai legislatori dell&#8217;UE riguardo ai ruoli e ai compiti del GEPD nella legge sull&#8217;IA.<\/p>\n\n\n\n<p>1. <strong>Il GEPD<\/strong> \u00e8 un&#8217;istituzione indipendente dell&#8217;UE che si occupa di garantire il rispetto dei diritti e delle libert\u00e0 fondamentali delle persone fisiche, in particolare per quanto riguarda la protezione dei dati personali. \u00c8 anche responsabile di fornire consulenza a tutte le parti interessate su questioni relative al trattamento dei dati personali.<\/p>\n\n\n\n<p>2 <strong>Secondo l&#8217;articolo 42, paragrafo 1,<\/strong> del regolamento (UE) 2018\/1725, la Commissione deve consultare il GEPD su questioni che potrebbero avere un impatto sulla protezione dei diritti e delle libert\u00e0 delle persone fisiche in relazione al trattamento dei dati personali.<\/p>\n\n\n\n<p>4. Il <strong>GEPD<\/strong> ha il potere di emettere pareri, sia su propria iniziativa che su richiesta, su qualsiasi questione relativa alla protezione dei dati personali.<\/p>\n\n\n\n<p>5. Il <strong>GEPD<\/strong> ha recentemente espresso un parere di iniziativa sulla proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce norme armonizzate sull&#8217;intelligenza artificiale (legge sull&#8217;intelligenza artificiale). Questo parere mira a fornire ulteriori raccomandazioni ai legislatori dell&#8217;UE mentre i negoziati sulla proposta entrano nella fase finale.<\/p>\n\n\n\n<p>6. Questo parere non pregiudica qualsiasi azione futura che potrebbe essere intrapresa dal GEPD nell&#8217;esercizio dei suoi poteri ai sensi del regolamento (UE) 2018\/1725. Si concentra solo sulle disposizioni della proposta che sono rilevanti dal punto di vista della protezione dei dati.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-ai-act-cosa-e-e-cosa-prevede\">AI Act: Cosa \u00e8 e cosa prevede?<\/h3>\n\n\n\n<h4 class=\"wp-block-heading\">1. Presentazione dell&#8217;AI Act<\/h4>\n\n\n\n<p>Il 21 aprile 2021 la Commissione europea ha pubblicato una proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce norme armonizzate in materia di intelligenza artificiale (legge sull&#8217;intelligenza artificiale).<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">2. Obiettivi dell&#8217;AI Act<\/h4>\n\n\n\n<p>La proposta mira a regolamentare l&#8217;uso dell&#8217;IA in Europa e a garantire la protezione dei diritti fondamentali delle persone.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">3. Livelli di rischio previsti dall&#8217;AI Act<\/h4>\n\n\n\n<p>La proposta prevede la definizione di tre livelli di rischio per l&#8217;uso dell&#8217;IA: basso, medio e alto. In base al livello di rischio, vengono introdotte misure di controllo e di garanzia differenti.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">4. Limitazioni all&#8217;uso dell&#8217;IA<\/h4>\n\n\n\n<p>L&#8217;uso dell&#8217;IA \u00e8 vietato in alcune situazioni, come ad esempio l&#8217;utilizzo di tecnologie di riconoscimento facciale per la sorveglianza di massa.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">5. Trasparenza e responsabilit\u00e0 nell&#8217;uso dell&#8217;IA<\/h4>\n\n\n\n<p>La proposta prevede anche l&#8217;obbligo per i fornitori di IA di fornire informazioni sulla tecnologia utilizzata e di garantire la trasparenza dell&#8217;algoritmo.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">6. Sanzioni per violazione delle norme<\/h3>\n\n\n\n<p>In caso di violazione delle norme, sono previste sanzioni pecuniarie fino al 6% del fatturato annuo mondiale dell&#8217;azienda.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">7. Il ruolo del GEPD e dell&#8217;EDPB<\/h4>\n\n\n\n<p>Il 18 giugno 2021 il comitato europeo per la protezione dei dati (&#8220;EDPB&#8221;) e il garante europeo della protezione dei dati (&#8220;GEPD&#8221;) hanno espresso un parere comune sulla proposta.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">8. Il GEPD e la legge sull&#8217;IA<\/h4>\n\n\n\n<p>Il GEPD ha successivamente emesso un parere di propria iniziativa, concentrato sui compiti e sul ruolo del Garante nella legge sull&#8217;IA alla luce degli sviluppi legislativi e delle posizioni negoziali del Parlamento europeo.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">9. Cooperazione tra autorit\u00e0 nazionali<\/h4>\n\n\n\n<p>Il GEPD ha sottolineato l&#8217;importanza della cooperazione tra le autorit\u00e0 nazionali per la protezione dei dati e della creazione di un sistema di coordinamento europeo per garantire l&#8217;applicazione uniforme della legge sull&#8217;IA.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">10. Protezione dei diritti fondamentali<\/h4>\n\n\n\n<p>Il GEPD ha anche evidenziato la necessit\u00e0 di garantire la tutela dei diritti fondamentali delle persone, come la protezione della privacy e della dignit\u00e0 umana, nell&#8217;uso dell&#8217;IA.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">11. Stato attuale della proposta di regolamento sull&#8217;IA<\/h4>\n\n\n\n<p>La proposta di regolamento sull&#8217;IA \u00e8 attualmente in fase di discussione presso il Parlamento europeo e il Consiglio dell&#8217;Unione europea.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-preoccupazioni-e-obiettivi-della-commissione-e-del-parlamento-europeo-sull-ia\">Preoccupazioni e Obiettivi della Commissione e del Parlamento Europeo sull&#8217;IA<\/h3>\n\n\n\n<h4 class=\"wp-block-heading\">1. Impatto dell&#8217;IA sui diritti fondamentali<\/h4>\n\n\n\n<p>L&#8217;uso dell&#8217;Intelligenza Artificiale (IA), con le sue specifiche caratteristiche come opacit\u00e0, complessit\u00e0, dipendenza dai dati e autonomia, pu\u00f2 avere un impatto negativo su una serie di diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell&#8217;UE.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">2. Obiettivo dell&#8217;AI Act<\/h4>\n\n\n\n<p>L&#8217;AI Act mira a rafforzare e promuovere la tutela dei diritti protetti dalla Carta.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">3. Supporto del GEPD<\/h4>\n\n\n\n<p>Il Gruppo Europeo di Protezione dei Dati (GEPD) sostiene l&#8217;approccio di creare un quadro giuridico per i sistemi di IA basato sui valori dell&#8217;UE sanciti dalla Carta e dalla Convenzione europea sui diritti dell&#8217;uomo (CEDU).<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">4. Rispetto dei diritti fondamentali<\/h4>\n\n\n\n<p>Il GEPD sottolinea che il rispetto dei diritti fondamentali alla vita privata e alla protezione dei dati personali, come sancito dalla CEDU e dalla Carta, \u00e8 un prerequisito essenziale per l&#8217;esercizio di altri diritti fondamentali, come la libert\u00e0 di espressione e di riunione.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">5. Legame tra privacy e dignit\u00e0 umana<\/h4>\n\n\n\n<p>I diritti fondamentali alla privacy e alla protezione dei dati personali sono strettamente legati alla dignit\u00e0 umana e al diritto all&#8217;integrit\u00e0 della persona, compresi i diritti al rispetto della sua integrit\u00e0 fisica e mentale.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">6. Utilizzo dell&#8217;IA che dovrebbe essere vietato<\/h4>\n\n\n\n<p>Nel loro parere congiunto, il GEPD e l&#8217;EDPB hanno individuato diversi usi dell&#8217;IA che dovrebbero essere vietati perch\u00e9 comportano rischi inaccettabili per i diritti fondamentali. Questi includono:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>L&#8217;utilizzo dell&#8217;IA per effettuare qualsiasi tipo di &#8220;social scoring&#8221;.<\/li>\n\n\n\n<li>L&#8217;utilizzo dell&#8217;IA per il riconoscimento automatizzato di caratteristiche umane in spazi pubblici.<\/li>\n\n\n\n<li>L&#8217;uso dell&#8217;IA per dedurre le emozioni di una persona fisica, ad eccezione di alcuni casi d&#8217;uso ben specificati.<\/li>\n\n\n\n<li>L&#8217;utilizzo di sistemi di IA che categorizzino gli individui in base alla biometria in gruppi in base all&#8217;etnia, al genere, all&#8217;orientamento politico o sessuale, o ad altri motivi di discriminazione.<\/li>\n\n\n\n<li>L&#8217;utilizzo di sistemi di IA destinati a essere utilizzati dalle autorit\u00e0 di contrasto come poligrafi e strumenti simili.<\/li>\n\n\n\n<li>L&#8217;utilizzo di sistemi destinati ad essere utilizzati dalle autorit\u00e0 di contrasto per effettuare valutazioni del rischio individuale delle persone fisiche.<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading\">Sistemi di Intelligenza Artificiale gi\u00e0 sul mercato o in uso<\/h3>\n\n\n\n<h4 class=\"wp-block-heading\">1. Applicabilit\u00e0 della legge sull&#8217;IA<\/h4>\n\n\n\n<p>Secondo l&#8217;articolo 83, paragrafo 2, della proposta di legge sull&#8217;IA, la stessa non si applicherebbe agli operatori di sistemi di IA ad alto rischio gi\u00e0 presenti sul mercato o in uso prima della data di applicabilit\u00e0 della legge sull&#8217;AI.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">2. Esonero per i sistemi preesistenti<\/h4>\n\n\n\n<p>Questa esenzione \u00e8 valida tranne nei casi in cui tali sistemi subiscano cambiamenti significativi nella loro progettazione o finalit\u00e0, o, secondo il mandato negoziale del Parlamento Europeo (PE), in caso di &#8220;modifiche sostanziali&#8221;.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">3. Mancanza di chiarezza<\/h4>\n\n\n\n<p>Il Gruppo Europeo di Protezione dei Dati (GEPD) rileva che queste disposizioni mancano di chiarezza riguardo ai criteri che dovrebbero essere applicati per determinare cosa costituisce un &#8220;cambiamento significativo&#8221; o una &#8220;modifica sostanziale&#8221;.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">4. Incertezza giuridica<\/h4>\n\n\n\n<p>Questo potrebbe portare a notevole incertezza giuridica riguardo a quando la legge sull\u2019AI si applicher\u00e0 effettivamente ai sistemi di IA gi\u00e0 presenti sul mercato o in uso.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">5. Rischio di danni o impatto negativo sui diritti fondamentali<\/h4>\n\n\n\n<p>Il GEPD teme che tale approccio possa portare a situazioni in cui determinati sistemi di IA, che presentano un rischio elevato di danni o di impatto negativo sui diritti fondamentali ai sensi dell\u2019articolo 7 della proposta, potrebbero non rientrare mai nell\u2019ambito di applicazione della legge sull\u2019AI perch\u00e9 continuano a funzionare senza &#8220;cambiamenti significativi&#8221; o &#8220;modifiche sostanziali&#8221;.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">6. Raccomandazione del GEPD<\/h4>\n\n\n\n<p>Di conseguenza, il GEPD raccomanda di eliminare l&#8217;esenzione dall&#8217;ambito di applicazione della legge sull&#8217;AI per i sistemi di IA esistenti ad alto rischio prevista all&#8217;articolo 83, paragrafo 2, della proposta. Invece, la legge sull&#8217;AI dovrebbe applicarsi ai sistemi di IA esistenti ad alto rischio alla data di entrata in vigore della legge sull\u2019AI.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Fornitori di Sistemi di Intelligenza Artificiale<\/h3>\n\n\n\n<h4 class=\"wp-block-heading\">1. Applicazione di requisiti giuridici ai fornitori di sistemi di IA<\/h4>\n\n\n\n<p>La proposta di legge sull&#8217;Intelligenza Artificiale prevede l&#8217;applicazione di requisiti giuridici alla maggior parte dei &#8220;fornitori&#8221; di sistemi di IA.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">2. Definizione di &#8220;fornitore&#8221;<\/h4>\n\n\n\n<p>La definizione di &#8220;fornitore&#8221; nella proposta di legge si riferisce allo &#8220;sviluppo&#8221; di un sistema di IA, senza fornire una definizione precisa del termine &#8220;sviluppo&#8221;.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">3. Formazione dei sistemi di IA<\/h4>\n\n\n\n<p>L&#8217;elaborazione dei dati a fini di formazione \u00e8 un&#8217;attivit\u00e0 fondamentale per lo sviluppo di sistemi di intelligenza artificiale basati sull&#8217;apprendimento automatico. Quindi, chiunque si occupi della formazione di un sistema di intelligenza artificiale potrebbe essere considerato un fornitore.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">4. Riqualificazione dei sistemi di IA<\/h4>\n\n\n\n<p>I sistemi di intelligenza artificiale possono essere sottoposti a ripetuti addestramenti nel corso del loro ciclo di vita. Questa riqualificazione pu\u00f2 rendersi necessaria per diverse ragioni, come la carenza di dati di addestramento o un deterioramento delle prestazioni del sistema.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">5. Definizione del ruolo degli operatori di IA<\/h4>\n\n\n\n<p>La proposta attuale non fornisce una chiara definizione del ruolo degli operatori di IA che si occupano della riqualificazione dei sistemi preaddestrati o dell&#8217;utilizzo di sistemi di IA con apprendimento continuo.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">6. Considerazioni del Gruppo Europeo di Protezione dei Dati (GEPD)<\/h4>\n\n\n\n<p>Il GEPD ritiene importante definire il ruolo degli operatori di intelligenza artificiale (IA) che riqualificano i sistemi di IA, in particolare se questi &#8220;riqualificatori&#8221; debbano essere considerati fornitori. Secondo il GEPD, gli operatori di IA che riqualificano sistemi di IA preaddestrati dovrebbero essere considerati &#8220;fornitori&#8221; per garantire la conformit\u00e0 ai requisiti della legge sull&#8217;IA.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-sistemi-it-su-larga-scala-dell-ue-e-cooperazione-internazionale-in-materia-di-applicazione-della-legge\">Sistemi IT su larga scala dell\u2019UE e cooperazione internazionale in materia di applicazione della legge<\/h3>\n\n\n\n<h4 class=\"wp-block-heading\">1. Estensione dell&#8217;ambito della legge sull&#8217;Intelligenza Artificiale (IA)<\/h4>\n\n\n\n<p>Il Gruppo Europeo di Protezione dei Dati (GEPD) sostiene che la legge sull&#8217;IA dovrebbe essere applicata a tutti i settori in cui i sistemi di IA sono utilizzati, inclusi quelli legati all&#8217;applicazione della legge e alla migrazione.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">2. Ruolo di eu-LISA<\/h4>\n\n\n\n<p>eu-LISA, l&#8217;agenzia dell&#8217;Unione Europea responsabile della gestione operativa dei sistemi di banche dati su larga scala dell&#8217;UE nel settore dei Affari Giustizia e Interni (GAI), gestisce attualmente alcuni componenti di IA dei sistemi per la gestione della migrazione e il controllo delle frontiere.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">3. Preoccupazione per l&#8217;esclusione dei sistemi di IA<\/h4>\n\n\n\n<p>Il GEPD ha espresso preoccupazione per l&#8217;esclusione dei sistemi di IA, che sono componenti dei sistemi IT su larga scala dell&#8217;Unione Europea, dall&#8217;ambito di applicazione della legge sull&#8217;IA. Questi sistemi possono elaborare grandi quantit\u00e0 di dati personali, inclusi quelli sensibili.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">4. Rimozione dell&#8217;esenzione per i sistemi di IA<\/h4>\n\n\n\n<p>Il GEPD raccomanda di rimuovere l&#8217;esenzione per questi sistemi di IA al fine di garantire una maggiore protezione dei dati personali.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">5. Preoccupazione per le eccezioni ai sistemi di IA ad alto rischio<\/h4>\n\n\n\n<p>Il GEPD ha espresso preoccupazione per l&#8217;eccezione proposta all&#8217;articolo 6, paragrafo 3, del regolamento europeo sulla IA, che potrebbe mettere a repentaglio le garanzie applicabili ai sistemi di IA.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">6. Rischio di danno alla salute, alla sicurezza o ai diritti fondamentali delle persone<\/h4>\n\n\n\n<p>Il GEPD ha espresso preoccupazione per il fatto che le modifiche proposte potrebbero compromettere l&#8217;efficacia delle garanzie previste per i sistemi ad alto rischio, aumentando il rischio per la privacy e la sicurezza delle persone coinvolte.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">7. Certificazione dei sistemi di IA ad alto rischio<\/h4>\n\n\n\n<p>Il GEPD consiglia che i sistemi di IA ad alto rischio siano certificati tenendo in considerazione la protezione dei dati fin dalla fase di progettazione e per impostazione predefinita.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">8. Valutazione della conformit\u00e0<\/h4>\n\n\n\n<p>Il GEPD suggerisce una modifica della procedura di valutazione della conformit\u00e0 per i sistemi di intelligenza artificiale ad alto rischio, raccomandando una valutazione ex ante da parte di terzi.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-ruoli-e-compiti-del-garante-europeo-per-la-protezione-dei-dati-nel-controllo-dei-sistemi-di-intelligenza-artificiale\">Ruoli e Compiti del Garante Europeo per la Protezione dei Dati nel Controllo dei Sistemi di Intelligenza Artificiale<\/h3>\n\n\n\n<h4 class=\"wp-block-heading\">1. Controllo pre-commercializzazione (valutazione della conformit\u00e0)<\/h4>\n\n\n\n<p>Il GEPD dovrebbe essere designato come organismo di valutazione della conformit\u00e0 per i sistemi di IA ad alto rischio destinati a essere utilizzati dalle istituzioni, organi, uffici e agenzie dell&#8217;Unione Europea o sviluppati da un&#8217;istituzione dell&#8217;Unione.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">2. Controllo post-commercializzazione<\/h4>\n\n\n\n<p>Nel contesto del controllo post-commercializzazione, il GEPD svolge il ruolo di autorit\u00e0 di vigilanza del mercato per le istituzioni dell&#8217;Unione.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">3. Autorit\u00e0 di controllo competente<\/h4>\n\n\n\n<p>Il GEPD \u00e8 l&#8217;autorit\u00e0 competente per il controllo del rispetto della legge sull&#8217;IA da parte delle istituzioni dell&#8217;Unione. Questo ruolo comprende il monitoraggio e il rispetto della conformit\u00e0 delle istituzioni dell&#8217;Unione alla legge sull\u2019IA e la creazione di sandbox normativi sull\u2019IA.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">4. Ulteriori chiarimenti necessari<\/h4>\n\n\n\n<p>Nonostante il GEPD accolga favorevolmente il suo ruolo designato, sottolinea che i suoi ruoli e compiti nella legge sull\u2019IA, compresi i poteri di cui sarebbe a disposizione per il controllo dei sistemi di IA, devono essere ulteriormente chiariti per rendere operative le pertinenti disposizioni.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">5. Conformit\u00e0 dei sistemi di IA alla legge sull&#8217;IA<\/h4>\n\n\n\n<p>Gli Stati membri devono valutare la conformit\u00e0 dei sistemi di IA alla legge sull&#8217;IA prima di essere immessi sul mercato. Gli organismi notificati svolgono compiti relativi alle procedure di valutazione della conformit\u00e0 per garantire che i prodotti siano conformi alla normativa di armonizzazione dell&#8217;Unione Europea.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">6. Ruolo del GEPD come organismo notificato<\/h4>\n\n\n\n<p>Quando il sistema di IA \u00e8 destinato a essere utilizzato dalle autorit\u00e0 di contrasto, dalle autorit\u00e0 di immigrazione o di asilo, nonch\u00e9 dalle istituzioni o organi dell&#8217;UE, l&#8217;autorit\u00e0 di vigilanza del mercato funge da organismo notificato. Tuttavia, \u00e8 necessario chiarire ulteriormente la competenza del GEPD come organismo notificato ai sensi della legge sull&#8217;IA.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">7. Definizione di &#8220;fornitore&#8221;<\/h4>\n\n\n\n<p>Si raccomanda di definire in modo inequivocabile la nozione di &#8220;fornitore&#8221; e di chiarire che il GEPD sia l&#8217;organismo notificato solo quando il fornitore \u00e8 un&#8217;istituzione, un organo o un organismo dell&#8217;UE.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">8. Supervisione del GEPD in caso di modifiche al sistema di IA<\/h4>\n\n\n\n<p>Nel caso di riqualificazione del modello di fondazione o modifiche sostanziali al sistema di IA, l&#8217;IUE come fornitore sar\u00e0 sotto la supervisione del GEPD come organismo notificato. Un distributore, importatore, utente o altro terzo che apporta modifiche sostanziali a un sistema di IA ad alto rischio sar\u00e0 considerato un fornitore e dovr\u00e0 adempiere agli obblighi previsti dalla proposta.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Il Ruolo del Garante Europeo per la Protezione dei Dati nella Vigilanza dei Sistemi di Intelligenza Artificiale<\/h3>\n\n\n\n<h4 class=\"wp-block-heading\">1. Definizione di Autorit\u00e0 di Vigilanza del Mercato<\/h4>\n\n\n\n<p>Il GEPD, designato come autorit\u00e0 di vigilanza del mercato da uno Stato membro secondo il regolamento sulla vigilanza del mercato dell&#8217;UE, \u00e8 responsabile dell&#8217;esercizio della vigilanza del mercato nel suo territorio.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">2. Ambito di Applicazione<\/h4>\n\n\n\n<p>L&#8217;ambito di applicazione del GEPD non \u00e8 definito geograficamente, ma piuttosto dalla natura dei fornitori e degli utenti coinvolti. Questo include istituzioni, agenzie e organismi dell&#8217;Unione.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">3. Territorio Nazionale<\/h4>\n\n\n\n<p>Il termine &#8220;territorio nazionale&#8221; \u00e8 ambiguo per il GEPD. Pertanto, il GEPD suggerisce di chiarire nella legge sull&#8217;IA che per &#8220;territorio nazionale&#8221; si intende &#8220;dove il sistema di IA \u00e8 fornito o utilizzato da istituzioni, organi, uffici e agenzie dell&#8217;Unione&#8221;.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">4. Misure Provvisorie<\/h4>\n\n\n\n<p>Se il fornitore di un sistema di IA non adotta azioni correttive adeguate, l&#8217;autorit\u00e0 di vigilanza del mercato deve adottare tutte le misure provvisorie adeguate per vietare o limitare la disponibilit\u00e0 del sistema di IA sul mercato.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">5. Definizione del Mercato Rilevante<\/h4>\n\n\n\n<p>Il GEPD suggerisce che il &#8220;mercato rilevante&#8221; dovrebbe essere definito come &#8220;il luogo in cui il sistema di IA \u00e8 fornito o diffuso da istituzioni, organi e organismi dell\u2019Unione&#8221;. Questa definizione sarebbe essenziale per evitare incertezze giuridiche.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">6. Poteri del GEPD<\/h4>\n\n\n\n<p>Il GEPD dovrebbe avere poteri come autorit\u00e0 di vigilanza del mercato per le IUE. Questi poteri dovrebbero essere esplicitamente specificati nella legge sull&#8217;IA.<\/p>\n\n\n\n<p>Queste considerazioni evidenziano l&#8217;importanza del ruolo del GEPD nella vigilanza dei sistemi di IA e la necessit\u00e0 di una chiara definizione dei suoi poteri e responsabilit\u00e0.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Raccomandazioni del Garante Europeo per la Protezione dei Dati sul Progetto di Legge sull&#8217;Intelligenza Artificiale<\/h3>\n\n\n\n<p>Il Garante Europeo per la Protezione dei Dati (GEPD) ha fornito una serie di raccomandazioni per le disposizioni da includere nel progetto di legge sull&#8217;Intelligenza Artificiale (IA).<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">1. Disposizioni Generali<\/h4>\n\n\n\n<p>Il GEPD suggerisce che il regolamento dovrebbe rispettare le competenze, i compiti, i poteri e l&#8217;indipendenza delle autorit\u00e0 pubbliche nazionali o degli organismi che vigilano sull&#8217;applicazione del diritto dell&#8217;Unione che tutela i diritti fondamentali, compresi gli organismi per la parit\u00e0 e le autorit\u00e0 di protezione dei dati.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">2. Poteri del GEPD<\/h4>\n\n\n\n<p>Il GEPD dovrebbe esercitare i propri poteri secondo la legge sull&#8217;IA, compresi i poteri di autorit\u00e0 di vigilanza del mercato secondo il regolamento sulla vigilanza del mercato dell&#8217;UE, rispettando i suoi compiti e poteri secondo l&#8217;EUDPR o altri diritti dell&#8217;Unione applicabili.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">3. Monitoraggio Post-commercializzazione<\/h4>\n\n\n\n<p>Il GEPD dovrebbe agire come autorit\u00e0 di vigilanza del mercato per quanto riguarda lo sviluppo, la diffusione e l&#8217;uso dei Sistemi di IA sviluppati o utilizzati da istituzioni, organi, uffici o agenzie dell&#8217;Unione.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">4. Definizione di &#8220;Territorio Nazionale&#8221;<\/h4>\n\n\n\n<p>Per il GEPD, &#8220;territorio nazionale&#8221; ai fini della vigilanza del mercato significa: &#8220;dove il sistema di IA \u00e8 fornito o utilizzato da istituzioni, organi, uffici e agenzie dell&#8217;Unione.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">5. Accesso ai Dati e alla Documentazione<\/h4>\n\n\n\n<p>Il GEPD esprime preoccupazione per le modifiche apportate agli emendamenti di compromesso del PE e all&#8217;approccio generale dell&#8217;articolo 64 della proposta riguardante l&#8217;accesso ai dati e alla documentazione.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">6. Eliminazione dell&#8217;Articolo 64<\/h4>\n\n\n\n<p>L&#8217;orientamento generale proposto elimina l&#8217;articolo 64, paragrafi 1 e 2, della proposta che avrebbe concesso alle autorit\u00e0 di vigilanza del mercato l&#8217;accesso ai dati di formazione, convalida e prova e al &#8220;codice sorgente&#8221; del sistema di intelligenza artificiale (IA).<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">7. Accesso Limitato ai Dati<\/h4>\n\n\n\n<p>Il GEPD rileva che l&#8217;accesso a tali informazioni sembra essere limitato, consentito solo su richiesta motivata e per i dati strettamente necessari. Inoltre, l&#8217;accesso al modello addestrato e ai relativi parametri verrebbe concesso solo dopo che tutti gli altri modi ragionevoli per verificare la conformit\u00e0 siano stati esauriti e si siano rivelati insufficienti.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">8. Poteri di Indagine delle Autorit\u00e0<\/h4>\n\n\n\n<p>Il GEPD suggerisce che la legge sull&#8217;Intelligenza Artificiale dovrebbe includere norme chiare sui poteri di indagine delle autorit\u00e0 di vigilanza del mercato. Queste regole devono includere il potere dell&#8217;autorit\u00e0 di accedere ai dati di formazione, convalida e test. Inoltre, tali autorit\u00e0 dovrebbero essere in grado di rivedere il codice sorgente dei sistemi di IA.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">9. Ispezioni in Loco e a Distanza<\/h4>\n\n\n\n<p>La legge sull&#8217;IA dovrebbe anche conferire alle autorit\u00e0 il potere di effettuare ispezioni in loco e a distanza senza preavviso dei sistemi di IA ad alto rischio, come previsto dall&#8217;art. 63, paragrafo 3 bis, lettera a), del mandato negoziale del PE.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">10. Accesso ai Dati per Verifica<\/h4>\n\n\n\n<p>Senza l&#8217;accesso ai dati di formazione, convalida e test, nonch\u00e9 al codice sorgente, le autorit\u00e0 di vigilanza non sarebbero in grado di verificare, ad esempio, che i dati di formazione, convalida e test siano &#8220;pertinenti, rappresentativi, privi di errori e completi&#8221; (come prescritto all&#8217;articolo 10, paragrafo 3, della proposta).<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">11. Garanzie Adeguate<\/h4>\n\n\n\n<p>L&#8217;esercizio dei poteri esecutivi da parte di queste autorit\u00e0 dovrebbe essere soggetto a garanzie adeguate, come rigorosi requisiti di riservatezza e mezzi di ricorso giurisdizionali effettivi e garanzie di giusto processo, stabiliti dal diritto dell&#8217;Unione.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Diritti e Reclami nell&#8217;Uso dei Sistemi di Intelligenza Artificiale: Il Punto di Vista del GEPD<\/h3>\n\n\n\n<p>Il Gruppo Europeo per la Protezione dei Dati (GEPD) ha presentato le sue considerazioni riguardo ai diritti e ai reclami legati all&#8217;uso dei sistemi di Intelligenza Artificiale (IA). Ecco i punti chiave:<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">1. Diritto di Presentare Reclami<\/h4>\n\n\n\n<p>L&#8217;articolo 63, paragrafo 11 dell&#8217;approccio generale all&#8217;IA stabilisce che qualsiasi persona fisica o giuridica ha il diritto di presentare un reclamo all&#8217;autorit\u00e0 di vigilanza del mercato competente se sospetta una violazione della legge sull&#8217;IA. Il GEPD apprezza questa disposizione che garantisce la tutela dei diritti dei cittadini.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">2. Autorit\u00e0 di Controllo Nazionale<\/h4>\n\n\n\n<p>Il mandato negoziale del Parlamento Europeo (PE) prevede il diritto delle persone colpite dall&#8217;uso dei sistemi di IA di presentare un reclamo a un&#8217;autorit\u00e0 di controllo nazionale, specialmente nello Stato membro di residenza, in caso di violazione della legge sull&#8217;IA che li riguarda.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">3. Ricorso Giurisdizionale<\/h4>\n\n\n\n<p>Viene garantito il diritto a un ricorso giurisdizionale effettivo contro una decisione dell&#8217;autorit\u00e0 di controllo. Il GEPD sostiene che sarebbe pi\u00f9 appropriato per l&#8217;autorit\u00e0 di controllo gestire i reclami delle persone interessate all&#8217;utilizzo di sistemi di IA ad alto rischio.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">4. Definizione di &#8220;Persona Interessata&#8221;<\/h4>\n\n\n\n<p>Il GEPD acclama l&#8217;inclusione della definizione di &#8220;persona interessata&#8221; come &#8220;qualsiasi persona fisica o gruppo di persone che \u00e8 soggetto o altrimenti interessato da un sistema di IA&#8221;, avente diritto al ricorso giurisdizionale.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">5. Trasparenza e Informazione<\/h4>\n\n\n\n<p>Per garantire un&#8217;adeguata tutela dei diritti delle persone soggette a sistemi di IA, \u00e8 fondamentale che esse siano sempre informate sulla loro eventuale esposizione a tali sistemi e sulle sedi di ricorso disponibili. Il GEPD propone un obbligo di trasparenza pi\u00f9 ampio per i fornitori e gli utilizzatori di sistemi di IA.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">6. Diritto all&#8217;Intervento Umano<\/h4>\n\n\n\n<p>Il GEPD raccomanda l&#8217;inclusione del diritto della persona interessata all&#8217;utilizzo di un sistema di IA, soprattutto se si tratta di sistemi ad alto rischio, di richiedere l&#8217;intervento umano da parte dell&#8217;utente del sistema di IA. Questo diritto consente all&#8217;individuo di influenzare il processo decisionale che lo riguarda e di contestare il risultato di tale processo.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">7. Diritto a Ricevere Spiegazioni<\/h4>\n\n\n\n<p>Il GEPD accoglie con favore l&#8217;inclusione nel mandato negoziale del PE del diritto a ricevere spiegazioni da parte degli utilizzatori del sistema di IA riguardo al processo decisionale che influisce in modo significativo sull&#8217;IA. Questo diritto si aggiunge ai diritti stabiliti dal GDPR, in particolare all&#8217;articolo 22 del GDPR, e ai diritti previsti dalla legislazione applicabile in settori come il credito al consumo, i servizi assicurativi, il lavoro, eccetera.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">L&#8217;Importanza dei Sandbox Normativi nella Legge sull&#8217;IA: Il Punto di Vista del GEPD<\/h3>\n\n\n\n<p>Il Gruppo Europeo per la Protezione dei Dati (GEPD) ha espresso il suo punto di vista in merito all&#8217;importanza dei sandbox normativi nella legge sull&#8217;Intelligenza Artificiale (IA). Ecco i punti salienti:<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">1. Definizione di Sandbox Normativo<\/h4>\n\n\n\n<p>Un &#8220;sandbox normativo&#8221; \u00e8 un ambiente controllato in cui le aziende possono testare prodotti, servizi o tecnologie innovativi per un periodo di tempo limitato. Questo permette alle autorit\u00e0 di osservare le dinamiche dello sviluppo tecnologico e di individuare gli interventi normativi pi\u00f9 opportuni ed efficaci.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">2. Autorit\u00e0 Competenti e Requisiti<\/h4>\n\n\n\n<p>Le autorit\u00e0 competenti lavorano per garantire il rispetto dei requisiti della legge sull&#8217;IA, nonch\u00e9 di altre normative dell&#8217;Unione e degli Stati membri. Questo processo avviene all&#8217;interno dei sandbox normativi, prima dell&#8217;introduzione sul mercato o della messa in servizio dei sistemi di IA.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">3. Obiettivi dei Sandbox Normativi<\/h4>\n\n\n\n<p>Il GEPD accoglie favorevolmente il mandato negoziale del Parlamento Europeo (PE), che include tra gli obiettivi dei sandbox normativi: aumentare la comprensione degli sviluppi tecnici da parte delle autorit\u00e0 che istituiscono i sandbox, migliorare i metodi di vigilanza e fornire orientamenti ai fornitori di sistemi di IA sulla conformit\u00e0 normativa.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">4. Effetto Giuridico del Sandboxing<\/h4>\n\n\n\n<p>Il PE specifica l&#8217;effetto giuridico dell&#8217;esercizio di sandboxing, che comporta una presunzione di conformit\u00e0 (limitata ai requisiti normativi testati) per i fornitori di sistemi di IA che escono dal sandboxing. Questo aumenta la certezza del diritto e incentiva ulteriormente la creazione di sandbox normativi.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">5. Ruolo delle Autorit\u00e0 di Protezione dei Dati<\/h4>\n\n\n\n<p>Il GEPD accoglie positivamente il riferimento al ruolo delle autorit\u00e0 di protezione dei dati e del GEPD, incluso nel mandato negoziale del PE. Tale riferimento garantisce il rispetto della normativa sulla protezione dei dati durante l&#8217;esercizio di sandboxing.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">6. Funzioni del GEPD<\/h4>\n\n\n\n<p>Le funzioni del GEPD come organismo notificato, autorit\u00e0 di vigilanza del mercato e autorit\u00e0 di controllo per la supervisione di sviluppo, fornitura e uso di sistemi di IA richiederanno competenze specifiche risorse.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">7. Processo di Certificazione<\/h4>\n\n\n\n<p>Il GEPD ha rilevato che il processo di certificazione eseguito dagli organismi notificati non \u00e8 un evento isolato. I certificati rilasciati dagli organismi notificati avranno una validit\u00e0 massima di cinque anni e i sistemi di IA ad alto rischio dovranno essere sottoposti a una nuova valutazione di conformit\u00e0 ogni volta che subiscono modifiche sostanziali.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">8. Monitoraggio Continuo<\/h4>\n\n\n\n<p>Il GEPD, in qualit\u00e0 di organismo notificato, dovr\u00e0 effettuare audit periodici sui fornitori di IA per garantire il rispetto dei requisiti stabiliti nella legge sull&#8217;IA. Questi obblighi richiederanno un monitoraggio continuo da parte del GEPD.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">9. Risorse Finanziarie<\/h4>\n\n\n\n<p>Il processo di certificazione richieder\u00e0 uno stanziamento significativo di risorse finanziarie affinch\u00e9 il GEPD possa svolgere il suo ruolo in modo efficace. Inoltre, gli organismi notificati devono stipulare un&#8217;adeguata assicurazione di responsabilit\u00e0 civile per le loro attivit\u00e0 di valutazione della conformit\u00e0.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-l-importanza-delle-autorita-per-la-protezione-dei-dati-come-autorita-nazionali-di-controllo-le-raccomandazioni-del-gepd\">L&#8217;Importanza delle Autorit\u00e0 per la Protezione dei Dati come Autorit\u00e0 Nazionali di Controllo: Le Raccomandazioni del GEPD<\/h3>\n\n\n\n<ol class=\"wp-block-list\" start=\"36\"><\/ol>\n\n\n\n<ol class=\"wp-block-list\" start=\"37\"><\/ol>\n\n\n\n<ol class=\"wp-block-list\" start=\"38\"><\/ol>\n\n\n\n<ol class=\"wp-block-list\" start=\"39\"><\/ol>\n\n\n\n<ol class=\"wp-block-list\" start=\"40\"><\/ol>\n\n\n\n<ol class=\"wp-block-list\" start=\"41\"><\/ol>\n\n\n\n<ol class=\"wp-block-list\" start=\"42\"><\/ol>\n\n\n\n<ol class=\"wp-block-list\" start=\"43\"><\/ol>\n\n\n\n<ol class=\"wp-block-list\" start=\"44\"><\/ol>\n\n\n\n<ol class=\"wp-block-list\" start=\"45\"><\/ol>\n\n\n\n<p>Il Gruppo Europeo per la Protezione dei Dati (GEPD) ha ribadito la sua raccomandazione di designare le autorit\u00e0 di protezione dei dati come autorit\u00e0 nazionali di controllo. Questo articolo esplora le ragioni dietro questa raccomandazione.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">1. Applicazione del GDPR e dell&#8217;EUDPR<\/h4>\n\n\n\n<p>Le autorit\u00e0 per la protezione dei dati applicano il Regolamento Generale sulla Protezione dei Dati (GDPR) e il Regolamento Europeo sulla Protezione dei Dati (EUDPR) insieme ad altre normative settoriali quando i sistemi di intelligenza artificiale trattano dati personali. Questo compito \u00e8 svolto per garantire i diritti fondamentali alla privacy e alla protezione dei dati personali.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">2. Tutela dei Diritti Fondamentali<\/h4>\n\n\n\n<p>I diritti alla privacy e alla protezione dei dati personali sono strettamente legati alla tutela di altri diritti fondamentali come il diritto alla dignit\u00e0, il diritto a un ricorso giurisdizionale effettivo e il diritto a un giusto processo. Le autorit\u00e0 per la protezione dei dati hanno il compito di valutare i rischi per questi diritti derivanti dalle nuove tecnologie, tra cui l&#8217;intelligenza artificiale.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">3. Supervisione Indipendente<\/h4>\n\n\n\n<p>Grazie alla loro completa indipendenza, le autorit\u00e0 per la protezione dei dati possono garantire una supervisione efficace e indipendente dei sistemi di intelligenza artificiale che possono incidere sui diritti e sulle libert\u00e0 fondamentali.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">4. Cooperazione tra Autorit\u00e0<\/h4>\n\n\n\n<p>Il GEPD sottolinea l&#8217;importanza della cooperazione tra le autorit\u00e0 di protezione dei dati e altre autorit\u00e0 di controllo che hanno competenze specifiche nel campo di diffusione dell&#8217;IA. Ad esempio, nel caso di un sistema di IA per la gestione del lavoro, le autorit\u00e0 di protezione dei dati dovrebbero collaborare strettamente con l&#8217;autorit\u00e0 di vigilanza competente in materia di salute e sicurezza sul lavoro. In caso di sistema di IA per il triage delle cure mediche d\u2019urgenza, invece, le autorit\u00e0 di protezione dei dati dovrebbero collaborare con l&#8217;autorit\u00e0 di vigilanza sanitaria.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">5. Articolo 59 della Proposta<\/h4>\n\n\n\n<p>Il GEPD raccomanda di specificare all&#8217;articolo 59 della proposta che le autorit\u00e0 di protezione dei dati coopereranno strettamente con le autorit\u00e0 di controllo che hanno competenze e responsabilit\u00e0 nel campo specifico di diffusione del sistema di IA. Questa specifica promuoverebbe una cooperazione pi\u00f9 stretta e pi\u00f9 efficace tra le varie autorit\u00e0 di controllo.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">L&#8217;Importanza dell&#8217;Ufficio Europeo per l&#8217;Intelligenza Artificiale: Il Punto di Vista del GEPD<\/h3>\n\n\n\n<h4 class=\"wp-block-heading\">1. Creazione dell&#8217;Ufficio AI<\/h4>\n\n\n\n<p>Il Gruppo Europeo per la Protezione dei Dati (GEPD) ha espresso sostegno alla proposta di creare un Ufficio europeo per l&#8217;intelligenza artificiale (Ufficio AI). Questo organismo dovrebbe operare come un&#8217;entit\u00e0 indipendente dell&#8217;Unione Europea, con una personalit\u00e0 giuridica propria e responsabilit\u00e0 consultive e di coordinamento.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">2. Ruolo dell&#8217;Ufficio AI<\/h4>\n\n\n\n<p>L&#8217;Ufficio AI avr\u00e0 il compito di emettere pareri, raccomandazioni, consigli o orientamenti su questioni relative all&#8217;attuazione della legge sull\u2019AI. L&#8217;organismo sar\u00e0 dotato di competenze tecniche e giuridiche necessarie per garantire un&#8217;applicazione efficace della legge sull\u2019AI.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">3. Indipendenza dell&#8217;Ufficio AI<\/h4>\n\n\n\n<p>L&#8217;indipendenza dell&#8217;Ufficio AI \u00e8 fondamentale per garantire un elevato livello di protezione dei diritti fondamentali, della democrazia e dello Stato di diritto in tutta l&#8217;Unione Europea. Inoltre, l&#8217;Ufficio AI garantir\u00e0 un ambiente imparziale in cui l&#8217;applicazione della legge non sar\u00e0 influenzata dalle direzioni politiche del momento.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">4. Cooperazione tra Ufficio AI e GEPD<\/h4>\n\n\n\n<p>Il GEPD ha espresso il desiderio di lavorare in modo coordinato con l&#8217;Ufficio AI. Nonostante il GEPD non abbia diritto di voto nel consiglio di amministrazione dell&#8217;Ufficio AI, \u00e8 favorevole al coordinamento delle indagini congiunte svolte dall&#8217;Ufficio AI.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">5. Ruolo del GEPD<\/h4>\n\n\n\n<p>Il GEPD ha raccomandato l&#8217;inclusione di una specifica chiara ed esplicita nella legge sull&#8217;Intelligenza Artificiale, che equipari il GEPD alle autorit\u00e0 di vigilanza nazionali ai fini della legge sull\u2019AI.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">6. Visione Europea<\/h4>\n\n\n\n<p>Il GEPD sostiene l&#8217;adozione di un approccio europeo all&#8217;attuazione delle regole sull\u2019Intelligenza Artificiale. L&#8217;Ufficio AI rappresenta un punto di partenza valido per tale approccio, ma dovrebbe essere dotato di maggiori poteri di attuazione.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">7. Compiti dell&#8217;Ufficio AI<\/h4>\n\n\n\n<p>L&#8217;Ufficio AI avr\u00e0 una serie di compiti importanti, tra cui fungere da mediatore nelle discussioni sui gravi disaccordi tra le autorit\u00e0 competenti, facilitare la creazione e il mantenimento di un pool di esperti dell&#8217;Unione e garantirne il controllo, assistere le autorit\u00e0 nella creazione di linee guida per l&#8217;implementazione della legge sull\u2019AI e nello sviluppo di sandbox normativi.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">8. Protezione dei Dati<\/h4>\n\n\n\n<p>Il GEPD sottolinea l&#8217;importanza di considerare adeguatamente la protezione dei dati nelle decisioni dell&#8217;Ufficio AI, dato che la maggior parte dei sistemi nell\u2019ambito di applicazione della legge sull\u2019AI sono o saranno basati sul trattamento dei dati personali.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">9. Cooperazione tra Autorit\u00e0<\/h4>\n\n\n\n<p>Il GEPD enfatizza la necessit\u00e0 di cooperare come autorit\u00e0 di controllo a pieno titolo, in particolare nelle aree sensibili come la polizia e la giustizia, la migrazione, il controllo delle frontiere europee e la Guardia Costiera, l\u2019Ufficio europeo di sostegno per l\u2019asilo, il settore sanitario, dove le agenzie dell\u2019UE come l\u2019Agenzia europea per i medicinali e il Centro europeo per la prevenzione e il controllo delle malattie svolgono un ruolo chiave.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Il Ruolo del GEPD nella Creazione del Segretariato dell&#8217;Ufficio AI<\/h3>\n\n\n\n<h4 class=\"wp-block-heading\">1. Fornitura di Supporto all&#8217;Ufficio AI<\/h4>\n\n\n\n<p>Il segretariato dell\u2019Ufficio AI avrebbe il compito di fornire supporto analitico, amministrativo e logistico all\u2019Ufficio AI. Questo modello \u00e8 analogo a quello del segretariato dell\u2019EDPB, che assiste attualmente i suoi membri. Il GEPD si \u00e8 offerto di sostenere questa iniziativa, proponendo di mettere a disposizione il segretariato dell&#8217;Ufficio AI.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">2. Uso Efficace delle Risorse<\/h4>\n\n\n\n<p>L&#8217;offerta del GEPD di fornire il segretariato dell\u2019Ufficio AI permetterebbe un uso pi\u00f9 efficace delle risorse. Questo approccio sfrutterebbe le strutture amministrative esistenti, evitando i costi aggiuntivi legati alla creazione di una nuova entit\u00e0. Inoltre, gestirebbe le risorse umane e gli aspetti di bilancio, contribuendo alla sana gestione delle finanze dell\u2019UE.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">3. Garanzie di Imparzialit\u00e0<\/h4>\n\n\n\n<p>Incorporare l&#8217;Ufficio AI all&#8217;interno di un&#8217;autorit\u00e0 indipendente come il GEPD offrirebbe garanzie di imparzialit\u00e0 a tutte le parti interessate. Questa struttura consentirebbe inoltre di realizzare risparmi significativi.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">4. Esperienza del GEPD<\/h4>\n\n\n\n<p>Il GEPD ha accumulato una vasta esperienza nella creazione di una nuova struttura amministrativa per un organismo europeo indipendente, il comitato europeo per la protezione dei dati. Questa esperienza pu\u00f2 essere utilizzata per facilitare l\u2019istituzione del segretariato dell\u2019Ufficio AI.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">5. Distinzione dei Ruoli<\/h4>\n\n\n\n<p>Il GEPD ha sottolineato l&#8217;importanza di mantenere una chiara distinzione tra il suo ruolo amministrativo come fornitore del segretariato e il suo ruolo come membro dell\u2019Ufficio AI. Questa distinzione \u00e8 gi\u00e0 in atto nel contesto dell&#8217;EDPB.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">6. Proposta del GEPD<\/h4>\n\n\n\n<p>Il GEPD ha proposto che la legge sull\u2019AI incarichi il GEPD di fornire il segretariato dell\u2019Ufficio AI, sfruttando la sua esperienza nella creazione di strutture interne come il gruppo di esperti di supporto alla protezione dei dati.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Divieti e Certificazioni per la Protezione dei Dati nella Legge sull&#8217;IA: Le Raccomandazioni del GEPD<\/h3>\n\n\n\n<p>Il Gruppo Europeo per la Protezione dei Dati (GEPD) ha raccomandato l&#8217;inclusione di divieti espliciti nella legge sull&#8217;IA e la certificazione dei sistemi di IA per garantire la protezione dei dati.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">1. Divieti Espliciti nella Legge sull&#8217;IA<\/h4>\n\n\n\n<p>Il GEPD ha raccomandato l&#8217;inclusione di divieti espliciti nella legge sull&#8217;IA per prevenire l&#8217;utilizzo dell&#8217;IA per scopi discriminatori. Questi divieti includono l&#8217;utilizzo dell&#8217;IA per effettuare qualsiasi tipo di &#8220;punteggio sociale&#8221;, il riconoscimento automatizzato di caratteristiche umane in spazi accessibili al pubblico, l&#8217;uso dell&#8217;IA per dedurre le emozioni di una persona fisica, e qualsiasi utilizzo di sistemi di IA che classificano gli individui in base ai dati biometrici in cluster in base all\u2019etnia, al genere, nonch\u00e9 all\u2019orientamento politico o sessuale, o ad altri motivi di discriminazione vietati dall\u2019articolo 21 della Carta, tra gli altri.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">2. Certificazioni dei Sistemi di IA<\/h4>\n\n\n\n<p>Il GEPD ha proposto che la certificazione dei sistemi di IA includa una verifica del rispetto della protezione dei dati fin dalla progettazione e per impostazione predefinita. Ci\u00f2 garantirebbe che i sistemi di IA siano conformi alle norme sulla protezione dei dati fin dall&#8217;inizio del processo di sviluppo.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">3. Potere dell&#8217;Autorit\u00e0 di Vigilanza del Mercato<\/h4>\n\n\n\n<p>La legge sull&#8217;IA dovrebbe prevedere il potere dell&#8217;autorit\u00e0 di vigilanza del mercato di accedere ai dati di formazione, di accedere a tutti i dati, documentazione e software necessari, di effettuare ispezioni in loco e remote senza preavviso e di rivedere il codice sorgente dei sistemi di IA. Ci\u00f2 garantirebbe che l&#8217;autorit\u00e0 abbia la capacit\u00e0 di monitorare l&#8217;utilizzo dei sistemi di IA e verificare la conformit\u00e0 alle norme sulla protezione dei dati.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">4. Diritti delle Persone Interessate<\/h4>\n\n\n\n<p>La legge sull&#8217;IA dovrebbe anche prevedere il diritto delle persone interessate dall&#8217;utilizzo del sistema di IA di presentare un reclamo dinanzi all&#8217;autorit\u00e0 di controllo competente e di un ricorso giurisdizionale effettivo contro la decisione dell&#8217;autorit\u00e0. Ci\u00f2 garantirebbe che le persone interessate abbiano la possibilit\u00e0 di far valere i propri diritti in caso di violazioni della protezione dei dati.<\/p>\n\n\n\n<p>In sintesi, il GEPD ha raccomandato l&#8217;inclusione di divieti espliciti nella legge sull&#8217;IA e la certificazione dei sistemi di IA per garantire la protezione dei dati fin dalla progettazione e per impostazione predefinita. Inoltre, la legge dovrebbe prevedere il potere dell&#8217;autorit\u00e0 di vigilanza del mercato di monitorare l&#8217;utilizzo dei sistemi di IA e il diritto delle persone interessate di presentare un reclamo contro le decisioni dell&#8217;autorit\u00e0.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" width=\"1024\" height=\"576\" src=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/avv.-bozzo-1024x576.jpg\" alt=\"\" class=\"wp-image-3332\" srcset=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/avv.-bozzo-1024x576.jpg 1024w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/avv.-bozzo-300x169.jpg 300w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/avv.-bozzo-768x432.jpg 768w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/avv.-bozzo-1536x864.jpg 1536w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/avv.-bozzo-480x270.jpg 480w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/avv.-bozzo.jpg 1920w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Introduzione Il Garante europeo della protezione dei dati personali (GEPD) ha recentemente pubblicato un parere d&#8217;iniziativa sulla legge europea in materia di intelligenza artificiale (IA). Il documento contiene importanti raccomandazioni per lo sviluppo e l&#8217;uso dei sistemi di IA nell&#8217;Unione Europea, con l&#8217;obiettivo di proteggere i diritti fondamentali delle persone. Tra le principali raccomandazioni del [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":3865,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[44,1],"tags":[160,163,166,165,164,161,167,162],"class_list":["post-3860","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-diritto-rovescio","category-non-categorizzato","tag-ai-act","tag-ai-pact","tag-dati","tag-il-garante-europeo","tag-intelligenza-artificiale-generativa","tag-regolamentazione-dellintelligenza-artificiale","tag-sistemi","tag-sviluppo-tecnologico"],"yoast_head":"<!-- This site is optimized with the Yoast SEO Premium plugin v23.3 (Yoast SEO v25.6) - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>AI Act: il parere del Garante europeo - PB Consulting<\/title>\n<meta name=\"description\" content=\"Il Garante europeo della protezione dei dati personali (GEPD) ha espresso la sua posizione sulla proposta di legge sull&#039;intelligenza artificiale dell&#039;UE. Scopri cosa ha detto il GEPD riguardo alla normativa sull&#039;IA dell&#039;Unione Europea.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-il-parere-del-garante-europeo\/\" \/>\n<meta property=\"og:locale\" content=\"en_US\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"AI Act: il parere del Garante europeo\" \/>\n<meta property=\"og:description\" content=\"Il Garante europeo della protezione dei dati personali (GEPD) ha espresso la sua posizione sulla proposta di legge sull&#039;intelligenza artificiale dell&#039;UE. Scopri cosa ha detto il GEPD riguardo alla normativa sull&#039;IA dell&#039;Unione Europea.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-il-parere-del-garante-europeo\/\" \/>\n<meta property=\"og:site_name\" content=\"PB Consulting\" \/>\n<meta property=\"article:author\" content=\"https:\/\/www.facebook.com\/alberto.bozzo.9\" \/>\n<meta property=\"article:published_time\" content=\"2023-11-04T20:36:11+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2023-11-04T20:41:26+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/AI-ACT.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1920\" \/>\n\t<meta property=\"og:image:height\" content=\"1080\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Alberto Bozzo\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Alberto Bozzo\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"33 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-il-parere-del-garante-europeo\/\",\"url\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-il-parere-del-garante-europeo\/\",\"name\":\"AI Act: il parere del Garante europeo - PB Consulting\",\"isPartOf\":{\"@id\":\"https:\/\/www.consultingpb.com\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-il-parere-del-garante-europeo\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-il-parere-del-garante-europeo\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/AI-ACT.jpg\",\"datePublished\":\"2023-11-04T20:36:11+00:00\",\"dateModified\":\"2023-11-04T20:41:26+00:00\",\"author\":{\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50\"},\"description\":\"Il Garante europeo della protezione dei dati personali (GEPD) ha espresso la sua posizione sulla proposta di legge sull'intelligenza artificiale dell'UE. Scopri cosa ha detto il GEPD riguardo alla normativa sull'IA dell'Unione Europea.\",\"breadcrumb\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-il-parere-del-garante-europeo\/#breadcrumb\"},\"inLanguage\":\"en-US\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-il-parere-del-garante-europeo\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-il-parere-del-garante-europeo\/#primaryimage\",\"url\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/AI-ACT.jpg\",\"contentUrl\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/AI-ACT.jpg\",\"width\":1920,\"height\":1080},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-il-parere-del-garante-europeo\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/www.consultingpb.com\/en\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"AI Act: il parere del Garante europeo\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/www.consultingpb.com\/#website\",\"url\":\"https:\/\/www.consultingpb.com\/\",\"name\":\"PB Consulting\",\"description\":\"\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/www.consultingpb.com\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"en-US\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50\",\"name\":\"Alberto Bozzo\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g\",\"caption\":\"Alberto Bozzo\"},\"sameAs\":[\"https:\/\/www.consultingpb.com\/\",\"https:\/\/www.facebook.com\/alberto.bozzo.9\",\"https:\/\/www.instagram.com\/ab_dirittorovescio\/\",\"https:\/\/www.linkedin.com\/in\/alberto-bozzo-57982b63\/\"],\"url\":\"https:\/\/www.consultingpb.com\/en\/blog\/author\/alberto\/\"}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"AI Act: il parere del Garante europeo - PB Consulting","description":"Il Garante europeo della protezione dei dati personali (GEPD) ha espresso la sua posizione sulla proposta di legge sull'intelligenza artificiale dell'UE. Scopri cosa ha detto il GEPD riguardo alla normativa sull'IA dell'Unione Europea.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-il-parere-del-garante-europeo\/","og_locale":"en_US","og_type":"article","og_title":"AI Act: il parere del Garante europeo","og_description":"Il Garante europeo della protezione dei dati personali (GEPD) ha espresso la sua posizione sulla proposta di legge sull'intelligenza artificiale dell'UE. Scopri cosa ha detto il GEPD riguardo alla normativa sull'IA dell'Unione Europea.","og_url":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-il-parere-del-garante-europeo\/","og_site_name":"PB Consulting","article_author":"https:\/\/www.facebook.com\/alberto.bozzo.9","article_published_time":"2023-11-04T20:36:11+00:00","article_modified_time":"2023-11-04T20:41:26+00:00","og_image":[{"width":1920,"height":1080,"url":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/AI-ACT.jpg","type":"image\/jpeg"}],"author":"Alberto Bozzo","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Alberto Bozzo","Est. reading time":"33 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-il-parere-del-garante-europeo\/","url":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-il-parere-del-garante-europeo\/","name":"AI Act: il parere del Garante europeo - PB Consulting","isPartOf":{"@id":"https:\/\/www.consultingpb.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-il-parere-del-garante-europeo\/#primaryimage"},"image":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-il-parere-del-garante-europeo\/#primaryimage"},"thumbnailUrl":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/AI-ACT.jpg","datePublished":"2023-11-04T20:36:11+00:00","dateModified":"2023-11-04T20:41:26+00:00","author":{"@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50"},"description":"Il Garante europeo della protezione dei dati personali (GEPD) ha espresso la sua posizione sulla proposta di legge sull'intelligenza artificiale dell'UE. Scopri cosa ha detto il GEPD riguardo alla normativa sull'IA dell'Unione Europea.","breadcrumb":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-il-parere-del-garante-europeo\/#breadcrumb"},"inLanguage":"en-US","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-il-parere-del-garante-europeo\/"]}]},{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-il-parere-del-garante-europeo\/#primaryimage","url":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/AI-ACT.jpg","contentUrl":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/AI-ACT.jpg","width":1920,"height":1080},{"@type":"BreadcrumbList","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-il-parere-del-garante-europeo\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/www.consultingpb.com\/en\/"},{"@type":"ListItem","position":2,"name":"AI Act: il parere del Garante europeo"}]},{"@type":"WebSite","@id":"https:\/\/www.consultingpb.com\/#website","url":"https:\/\/www.consultingpb.com\/","name":"PB Consulting","description":"","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.consultingpb.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"en-US"},{"@type":"Person","@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50","name":"Alberto Bozzo","image":{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g","caption":"Alberto Bozzo"},"sameAs":["https:\/\/www.consultingpb.com\/","https:\/\/www.facebook.com\/alberto.bozzo.9","https:\/\/www.instagram.com\/ab_dirittorovescio\/","https:\/\/www.linkedin.com\/in\/alberto-bozzo-57982b63\/"],"url":"https:\/\/www.consultingpb.com\/en\/blog\/author\/alberto\/"}]}},"_links":{"self":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/3860","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/comments?post=3860"}],"version-history":[{"count":9,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/3860\/revisions"}],"predecessor-version":[{"id":3871,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/3860\/revisions\/3871"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/media\/3865"}],"wp:attachment":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/media?parent=3860"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/categories?post=3860"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/tags?post=3860"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}