{"id":6857,"date":"2024-05-12T08:06:21","date_gmt":"2024-05-12T08:06:21","guid":{"rendered":"https:\/\/www.consultingpb.com\/?p=6857"},"modified":"2024-05-12T08:35:37","modified_gmt":"2024-05-12T08:35:37","slug":"ai-act-europeo-rivoluzione-normativa-per-lintelligenza-artificiale-guida-completa-alle-novita-e-impatti","status":"publish","type":"post","link":"https:\/\/www.consultingpb.com\/en\/blog\/diritto-rovescio\/ai-act-europeo-rivoluzione-normativa-per-lintelligenza-artificiale-guida-completa-alle-novita-e-impatti\/","title":{"rendered":"AI Act Europeo: Rivoluzione Normativa per l&#8217;Intelligenza Artificiale &#8211; Guida Completa alle Novit\u00e0 e Impatti"},"content":{"rendered":"\n<p><strong>Introduzione<\/strong><\/p>\n\n\n\n<p>L&#8217;approvazione dell&#8217;AI Act il 13 marzo 2024 dal Parlamento Europeo non \u00e8 solo un traguardo legislativo di rilievo, ma segna anche un momento cruciale nella storia della regolamentazione tecnologica a livello globale.&nbsp;&nbsp;&nbsp;<\/p>\n\n\n\n<p>L&#8217;AI Act rappresenta un tentativo ambizioso di fornire un quadro normativo armonizzato per lo sviluppo e l&#8217;impiego dell&#8217;intelligenza artificiale (IA) all&#8217;interno dell&#8217;Unione Europea (UE).&nbsp;&nbsp;<\/p>\n\n\n\n<p>La necessit\u00e0 di una tale regolamentazione \u00e8 diventata sempre pi\u00f9 evidente di fronte alla rapida evoluzione dell&#8217;IA e al suo impatto pervasivo su vari aspetti della vita quotidiana e dell&#8217;economia.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Uno degli obiettivi principali dell&#8217;AI Act \u00e8 quello di classificare i sistemi di IA in base <strong>al livello di rischio<\/strong> che presentano, da &#8220;minimo&#8221; a &#8220;inaccettabile&#8221;, e di imporre requisiti normativi proporzionati a tali rischi. Questo approccio mira a garantire che le applicazioni di IA siano sviluppate e utilizzate in modo responsabile, con particolare attenzione alla trasparenza, alla sicurezza e alla protezione dei dati.&nbsp;<\/p>\n\n\n\n<p>Il regolamento prevede anche la creazione di un <strong>elenco di pratiche di IA considerate inaccettabili,<\/strong> come quelle che manipolano il comportamento umano oltre un certo limite o che consentono la sorveglianza di massa. Inoltre, enfatizza l&#8217;importanza dell&#8217;IA affidabile, sottolineando che i sistemi di IA dovrebbero essere soggetti a valutazioni di impatto, verifiche di conformit\u00e0 e audit regolari.&nbsp;<\/p>\n\n\n\n<p>Dal punto di vista dell&#8217;innovazione, l&#8217;AI Act si propone di <strong>stimolare lo sviluppo di tecnologie di IA all&#8217;interno dell&#8217;UE<\/strong> creando un ambiente normativo chiaro e prevedibile. Questo dovrebbe aiutare le aziende europee a competere su un piano pi\u00f9 equo con i giganti tecnologici globali, promuovendo al contempo l&#8217;adozione di soluzioni di IA sicure e affidabili.&nbsp;<\/p>\n\n\n\n<p><strong>Tuttavia, l&#8217;AI Act ha anche sollevato alcune preoccupazioni.<\/strong> Critici e stakeholder del settore hanno espresso timori riguardo alla possibilit\u00e0 che la regolamentazione possa frenare l&#8217;innovazione o imporre oneri amministrativi eccessivi, specialmente sulle startup e le piccole imprese.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Inoltre, la questione dell&#8217;applicabilit\u00e0 e dell&#8217;efficacia dei controlli normativi in uno spazio tecnologico in rapida evoluzione rimane aperta.&nbsp;<\/p>\n\n\n\n<p>Nonostante queste sfide, l&#8217;AI Act \u00e8 considerato un passo importante verso la creazione di un ecosistema digitale pi\u00f9 sicuro e etico. Mentre<strong> l&#8217;UE si posiziona come leader nella regolamentazione<\/strong> dell&#8217;IA, il mondo osserva attentamente. L&#8217;approccio adottato dall&#8217;UE potrebbe servire da modello per altri paesi che cercano di navigare nella complessa intersezione tra tecnologia, etica e governance.&nbsp;<\/p>\n\n\n\n<p><strong>Un Consenso Unanime tra gli Stati Membri<\/strong>&nbsp;<\/p>\n\n\n\n<p>L&#8217;espressione di un consenso unanime da parte dei 27 stati membri dell&#8217;Unione Europea (UE) sull&#8217;AI Act, confermando l&#8217;accordo politico raggiunto nel dicembre 2023, rappresenta un momento significativo nella storia dell&#8217;integrazione europea e della regolamentazione tecnologica.&nbsp;&nbsp;<\/p>\n\n\n\n<p>La rilevanza di questo consenso unanime va oltre la mera formalit\u00e0 legislativa; simboleggia la riconosciuta necessit\u00e0 di un quadro normativo che possa garantire lo sviluppo sicuro e etico dell&#8217;IA, proteggendo al contempo i diritti fondamentali dei cittadini europei.&nbsp;&nbsp;<\/p>\n\n\n\n<p>La capacit\u00e0 di raggiungere un accordo su una questione cos\u00ec complessa e tecnicamente avanzata dimostra <strong>l&#8217;impegno degli stati membri verso la creazione di uno spazio digitale<\/strong> che sia all&#8217;avanguardia nell&#8217;innovazione tecnologica, ma che non comprometta i valori e i principi fondamentali dell&#8217;UE.&nbsp;<\/p>\n\n\n\n<p>Inoltre, l&#8217;approvazione dell&#8217;AI Act da parte di un&#8217;ampia maggioranza nel Parlamento Europeo evidenzia la crescente consapevolezza dell&#8217;importanza di <strong>affrontare proattivamente i rischi associati<\/strong> all&#8217;IA, come la discriminazione, la violazione della privacy, e l&#8217;uso improprio della sorveglianza, mantenendo al contempo un ambiente favorevole all&#8217;innovazione.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questo equilibrio \u00e8 fondamentale per garantire che l&#8217;IA sia utilizzata in modo che beneficia la societ\u00e0 nel suo complesso, promuovendo al tempo stesso la crescita economica e la competitivit\u00e0 dell&#8217;UE sul palcoscenico mondiale.&nbsp;<\/p>\n\n\n\n<p>L&#8217;AI Act, con il suo ampio sostegno sia dagli stati membri che dal Parlamento Europeo, si posiziona come un esempio di come l&#8217;UE intende navigare il complesso panorama dell&#8217;innovazione tecnologica. Stabilendo norme chiare e coerenti per l&#8217;uso dell&#8217;IA, l&#8217;UE mira a promuovere un approccio responsabile e centrato sull&#8217;essere umano allo sviluppo tecnologico. Questo, a sua volta, potrebbe servire da <strong>modello per altre paesi <\/strong>che cercano di bilanciare i benefici dell&#8217;IA con la necessit\u00e0 di proteggere i cittadini e mantenere la fiducia pubblica nella tecnologia.&nbsp;<\/p>\n\n\n\n<p><strong>Obiettivi e Ambizioni dell&#8217;AI Act<\/strong>&nbsp;<\/p>\n\n\n\n<p>Uno degli aspetti pi\u00f9 innovativi dell&#8217;AI Act \u00e8 il suo t<strong>entativo di bilanciare la protezione dei diritti fondamentali con la promozione dell&#8217;innovazione<\/strong>. Questo equilibrio \u00e8 cruciale in un&#8217;epoca in cui l&#8217;IA ha il potenziale per trasformare radicalmente non solo il mercato e l&#8217;industria, ma anche la societ\u00e0 nel suo complesso. La legge mira a garantire che questa trasformazione avvenga in modo sicuro, etico e rispettoso dei valori europei, come la privacy, la non discriminazione e la trasparenza.&nbsp;<\/p>\n\n\n\n<p>L&#8217;approccio olistico dell&#8217;AI Act alla regolamentazione dell&#8217;IA \u00e8 evidente nella sua classificazione dei sistemi di IA i<strong>n base al livello di rischio che presentano.<\/strong> Questa classificazione consente di applicare un insieme di requisiti normativi proporzionati al rischio, garantendo che i sistemi ad alto rischio siano soggetti a controlli pi\u00f9 rigorosi. Questo non solo contribuisce a proteggere i cittadini da possibili danni, ma fornisce anche alle imprese una chiara comprensione delle loro responsabilit\u00e0 legali, promuovendo un ambiente di innovazione responsabile.&nbsp;<\/p>\n\n\n\n<p>Inoltre, l&#8217;AI Act si propone di essere un <strong>catalizzatore per lo sviluppo tecnologico<\/strong>, fornendo un quadro normativo stabile e prevedibile che pu\u00f2 stimolare gli investimenti in ricerca e innovazione nel campo dell&#8217;IA. Questo \u00e8 particolarmente importante per mantenere la competitivit\u00e0 dell&#8217;UE a livello globale, in un momento in cui altre grandi economie stanno investendo massicciamente nelle tecnologie di IA.&nbsp;<\/p>\n\n\n\n<p>Tuttavia, l&#8217;AI Act affronta <strong>anche le preoccupazioni relative all&#8217;impatto dell&#8217;IA<\/strong> sui diritti fondamentali, introducendo misure per prevenire la discriminazione algoritmica e garantire che i sistemi di IA siano trasparenti e comprensibili per gli utenti. Queste disposizioni riflettono l&#8217;impegno dell&#8217;UE a garantire che l&#8217;innovazione tecnologica sia al servizio dell&#8217;umanit\u00e0 e non diventi una fonte di esclusione o ingiustizia.&nbsp;<\/p>\n\n\n\n<p><strong>Implementazione e Vigilanza<\/strong>&nbsp;<\/p>\n\n\n\n<p>La creazione <strong>dell&#8217;Ufficio Europeo<\/strong> per l&#8217;IA, istituito all&#8217;interno della Commissione Europea nel febbraio 2024, \u00e8 un elemento chiave. L&#8217;Ufficio svolge un ruolo cruciale nel supervisionare l&#8217;attuazione e l&#8217;applicazione dell&#8217;AI Act, lavorando in stretta collaborazione con gli stati membri per garantire un approccio coordinato e uniforme alla regolamentazione dell&#8217;IA in tutta l&#8217;Unione Europea. Questo organismo non solo monitora la conformit\u00e0 con l&#8217;AI Act, ma funge anche da punto di riferimento per le aziende e gli sviluppatori di IA, offrendo linee guida e supporto per navigare il nuovo paesaggio normativo.&nbsp;<\/p>\n\n\n\n<p>La necessit\u00e0 di una gestione continua della qualit\u00e0 e del rischio deriva dalla comprensione che l&#8217;IA non \u00e8 un prodotto statico, ma una <strong>tecnologia che evolve rapidamente<\/strong> e pu\u00f2 cambiare nel tempo a seguito di aggiornamenti o apprendimento autonomo.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Pertanto, i fornitori di IA sono tenuti a monitorare e valutare costantemente le prestazioni e l&#8217;impatto dei loro sistemi, assicurandosi che rimangano sicuri, affidabili e in linea con i principi etici e legali stabiliti dall&#8217;AI Act.&nbsp;<\/p>\n\n\n\n<p>Inoltre, l&#8217;istituzione dell&#8217;Ufficio Europeo per l&#8217;IA riflette la consapevolezza che una regolamentazione efficace dell&#8217;IA richiede non solo leggi rigorose, ma anche <strong>un&#8217;infrastruttura di supervisione e supporto ben organizzata<\/strong>.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questo organo \u00e8 destinato a svolgere un ruolo vitale nell&#8217;assicurare che l&#8217;Europa rimanga all&#8217;avanguardia nella ricerca e nello sviluppo di IA etica e responsabile, stabilendo standard elevati che influenzano positivamente l&#8217;intero ecosistema globale dell&#8217;IA.&nbsp;<\/p>\n\n\n\n<p><strong>&nbsp;Principi Guida dell&#8217;AI Act<\/strong>&nbsp;<\/p>\n\n\n\n<p>L&#8217;AI Act europeo, pionieristico nella sua concezione, \u00e8 radicato in un principio fondamentale: l&#8217;intelligenza artificiale (IA) deve essere sviluppata e utilizzata in maniera che tuteli incondizionatamente la sicurezza delle persone e i loro diritti fondamentali.&nbsp;<\/p>\n\n\n\n<p>&nbsp;Questa visione riflette un impegno profondo verso un&#8217;innovazione tecnologica che non solo spinge i confini del possibile ma lo fa con un forte senso di responsabilit\u00e0 e etica.&nbsp;<\/p>\n\n\n\n<p>Per tradurre questo principio in pratica, l&#8217;AI Act introduce un sistema di classificazione dei sistemi di IA,<strong> basato sui livelli di rischio che questi possono comportare<\/strong>.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questo non \u00e8 un mero esercizio accademico, ma una necessit\u00e0 pratica che riconosce la vasta gamma di applicazioni dell&#8217;IA, dalle pi\u00f9 innocue e benefiche fino a quelle potenzialmente pericolose o invasive. Tale classificazione \u00e8 fondamentale per applicare un approccio normativo &#8220;<strong>basato sul rischio<\/strong>&#8221; che si adatti alla specificit\u00e0 di ogni sistema di IA, assicurando che le misure di sicurezza e protezione siano proporzionate al livello di rischio presentato.&nbsp;<\/p>\n\n\n\n<p>In base a questa classificazione, l&#8217;AI Act stabilisce requisiti specifici e obblighi sia per i fornitori che per gli utenti dei sistemi di IA.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questo approccio bilaterale \u00e8 essenziale per una gestione efficace dei rischi associati all&#8217;IA. Da un lato, i fornitori sono tenuti a garantire che i loro sistemi siano progettati, sviluppati e implementati con riguardi alla sicurezza e ai diritti fondamentali.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questo include l&#8217;obbligo di condurre valutazioni del rischio approfondite, implementare misure di mitigazione appropriate e assicurare trasparenza e spiegabilit\u00e0 dei sistemi di IA.&nbsp;<\/p>\n\n\n\n<p><strong>Dall&#8217;altro lato, anche gli utenti di sistemi di IA hanno responsabilit\u00e0 sotto l&#8217;AI Act.&nbsp;<\/strong>&nbsp;<\/p>\n\n\n\n<p>Questo \u00e8 particolarmente rilevante in contesti in cui l&#8217;IA \u00e8 utilizzata in maniera che pu\u00f2 avere impatti diretti sui diritti e sulla sicurezza delle persone, come nel settore sanitario, nella sorveglianza o nei sistemi di decisione automatizzata che influenzano la vita delle persone.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Gli utenti devono quindi assicurarsi che l&#8217;impiego di tali sistemi sia conforme ai requisiti legali e etici, e che sia data adeguata considerazione alle implicazioni sulla sicurezza e sui diritti fondamentali.&nbsp;<\/p>\n\n\n\n<p>L&#8217;introduzione di questa classificazione dei sistemi di IA e dei relativi requisiti e obblighi rappresenta un passo avanti significativo nella regolamentazione dell&#8217;IA. Fornisce una struttura chiara per valutare e gestire i rischi associati all&#8217;IA, promuovendo al contempo l&#8217;innovazione responsabile. Inoltre, enfatizza l&#8217;importanza della collaborazione tra fornitori e utenti di sistemi di IA per garantire che la tecnologia serva il bene comune senza compromettere i diritti e la sicurezza delle persone.&nbsp;<\/p>\n\n\n\n<p><strong>Obblighi di Trasparenza nell&#8217;AI Act: Un Nuovo Paradigma per l&#8217;Intelligenza Artificiale<\/strong>&nbsp;<\/p>\n\n\n\n<p>Uno degli aspetti pi\u00f9 innovativi e cruciali dell&#8217;AI Act \u00e8 l&#8217;introduzione di <strong>obblighi di trasparenza specifici per i sistemi di IA<\/strong> classificati come &#8220;a rischio limitato&#8221;.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questa categoria comprende una vasta gamma di applicazioni di IA che, pur non presentando rischi elevati, possono comunque avere un impatto significativo sulla vita delle persone. Gli obblighi di trasparenza sono concepiti per garantire che gli utenti siano pienamente informati su come i sistemi di IA funzionano, su quali dati vengono utilizzati e per quali scopi. Questo \u00e8 fondamentale per costruire una fiducia reciproca tra i fornitori di IA e gli utenti, un elemento essenziale per l&#8217;accettazione e l&#8217;utilizzo responsabile dell&#8217;IA nella societ\u00e0.&nbsp;<\/p>\n\n\n\n<p>La trasparenza nell&#8217;IA non \u00e8 solo una questione di etica; \u00e8 anche una questione pratica che riguarda la capacit\u00e0 degli utenti di comprendere e interagire efficacemente con la tecnologia.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Gli obblighi di trasparenza previsti dall&#8217;AI Act si prefiggono di assicurare che gli utenti possano prendere decisioni informate sull&#8217;utilizzo dei sistemi di IA, riconoscendo potenziali bias, limitazioni e l&#8217;affidabilit\u00e0 delle decisioni prese dall&#8217;IA.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questo non solo aumenta la fiducia nell&#8217;uso dell&#8217;IA, ma promuove anche una maggiore responsabilit\u00e0 da parte dei fornitori, che sono incentivati a sviluppare sistemi pi\u00f9 sicuri, equi e comprensibili.&nbsp;<\/p>\n\n\n\n<p>L&#8217;importanza di questi obblighi di trasparenza va ben oltre la semplice informazione degli utenti. Contribuiscono a creare un ecosistema di IA in cui la fiducia \u00e8 costruita su solide fondamenta di apertura e responsabilit\u00e0.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Inoltre, stimolano l&#8217;innovazione responsabile, spingendo i fornitori a investire in tecnologie di IA che non solo sono avanzate dal punto di vista tecnologico, ma sono anche progettate con un&#8217;attenzione particolare all&#8217;impatto etico e sociale.&nbsp;<\/p>\n\n\n\n<p><strong>Interazione Diretta con le Persone<\/strong>&nbsp;<\/p>\n\n\n\n<p>Nell&#8217;ambito della regolamentazione dell&#8217;intelligenza artificiale (IA) delineata dall&#8217;AI Act, una disposizione particolarmente significativa riguarda i sistemi di IA che interagiscono direttamente con gli individui.&nbsp;<\/p>\n\n\n\n<p>La legge stabilisce che questi sistemi devono essere progettati e sviluppati in modo che gli utenti siano chiaramente informati del fatto che stanno interagendo con un algoritmo di IA.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questo requisito di trasparenza \u00e8 fondamentale non solo per garantire un&#8217;interazione etica e consapevole tra uomo e macchina, ma anche per preservare e rafforzare la fiducia degli utenti nei confronti della tecnologia IA.&nbsp;<\/p>\n\n\n\n<p>La necessit\u00e0 di questo livello di <strong>trasparenza <\/strong>nasce dalla crescente capacit\u00e0 degli algoritmi di IA di simulare comportamenti umani in modo sempre pi\u00f9 convincente.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Che si tratti di assistenti vocali, chatbot di servizio clienti, o sistemi di supporto alle decisioni, la linea tra interazioni umane e algoritmiche sta diventando sempre pi\u00f9 sfumata.&nbsp;&nbsp;<\/p>\n\n\n\n<p>In questo contesto, \u00e8 essenziale che gli utenti siano <strong>consapevoli <\/strong>di non interagire con un essere umano, ma con un sistema basato su IA. Questa consapevolezza aiuta a prevenire confusione o malintesi riguardo alle capacit\u00e0 reali e alle intenzioni del sistema, garantendo che le aspettative degli utenti siano correttamente allineate con le funzionalit\u00e0 offerte dall&#8217;IA.&nbsp;<\/p>\n\n\n\n<p>Questo requisito di trasparenza contribuisce inoltre a costruire un rapporto di fiducia tra gli utenti e i sistemi di IA. La <strong>fiducia <\/strong>\u00e8 un elemento cruciale nell&#8217;adozione e nell&#8217;accettazione delle tecnologie innovative, e la chiarezza sulla natura algoritmica dell&#8217;interlocutore rafforza la comprensione e l&#8217;accettazione dell&#8217;IA da parte del pubblico.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Gli utenti, sapendo di interagire con un sistema di IA, possono regolare le loro aspettative e assumere un approccio pi\u00f9 informato e critico verso le informazioni ricevute o le decisioni suggerite dall&#8217;algoritmo.&nbsp;<\/p>\n\n\n\n<p>Inoltre, questo approccio alla trasparenza nell&#8217;interazione con l&#8217;IA sottolinea l&#8217;impegno verso un utilizzo <strong>etico e responsabile della tecnologia<\/strong>.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Riconoscendo l&#8217;importanza del consenso informato e della chiarezza nella comunicazione, i progettisti e gli sviluppatori di sistemi di IA sono incentivati a considerare attentamente le implicazioni etiche delle loro creazioni.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questo pu\u00f2 portare a una maggiore riflessione sulle potenziali conseguenze sociali e psicologiche dell&#8217;interazione uomo-IA, promuovendo lo sviluppo di tecnologie che rispettano i valori umani e contribuiscono positivamente alla societ\u00e0.&nbsp;<\/p>\n\n\n\n<p><strong>Generazione di Contenuti<\/strong>&nbsp;<\/p>\n\n\n\n<p>Nel contesto dell&#8217;AI Act e della sua enfasi sulla trasparenza e sull&#8217;etica nell&#8217;uso dell&#8217;intelligenza artificiale (IA), una disposizione particolarmente rilevante si applica ai sistemi di IA capaci di generare contenuti, come audio, immagini, video o testo.&nbsp;<\/p>\n\n\n\n<p>&nbsp;Questa normativa richiede che i contenuti prodotti da tali sistemi siano chiaramente <strong>contrassegnati<\/strong>, affinch\u00e9 sia immediatamente evidente che sono stati generati o manipolati artificialmente.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questo requisito si estende anche ai sistemi di IA per finalit\u00e0 generali, che grazie alle loro avanzate capacit\u00e0 possono produrre output estremamente realistici, talvolta indistinguibili da quelli reali.&nbsp;<\/p>\n\n\n\n<p>Questa misura di trasparenza \u00e8 cruciale in un&#8217;epoca in cui la tecnologia di generazione di contenuti AI ha raggiunto livelli di sofisticazione tali da poter creare opere audiovisive o testuali estremamente convincenti. Senza un adeguato contrassegno, esiste il rischio che tali contenuti possano essere e<strong>rroneamente percepiti come autentici,<\/strong> portando a conseguenze potenzialmente gravi in termini di disinformazione, manipolazione dell&#8217;opinione pubblica o violazione dei diritti d&#8217;autore.&nbsp;<\/p>\n\n\n\n<p>Il requisito di contrassegnare chiaramente i contenuti generati dall&#8217;IA serve a diversi scopi importanti:&nbsp;<\/p>\n\n\n\n<p>1. <strong>Prevenzione della disinformazion<\/strong>e: In un&#8217;era caratterizzata da fake news e campagne di disinformazione, \u00e8 fondamentale che gli utenti possano distinguere tra contenuti reali e quelli generati artificialmente. Questo aiuta a mantenere l&#8217;integrit\u00e0 del discorso pubblico e a proteggere la democrazia da potenziali manipolazioni.&nbsp;<\/p>\n\n\n\n<p>2.<strong> Protezione dei diritti d&#8217;autore<\/strong>: La capacit\u00e0 dell&#8217;IA di generare contenuti che emulano stili o opere esistenti solleva questioni complesse relative ai diritti d&#8217;autore. Il chiaro contrassegno dei contenuti AI aiuta a prevenire violazioni non intenzionali dei diritti d&#8217;autore e a garantire il riconoscimento appropriato degli autori originali.&nbsp;<\/p>\n\n\n\n<p>3. <strong>Promozione dell&#8217;etica nell&#8217;IA<\/strong>: Richiedendo che i contenuti generati dall&#8217;IA siano chiaramente identificati come tali, si promuove una cultura di responsabilit\u00e0 e trasparenza nello sviluppo e nell&#8217;uso dell&#8217;IA. Questo incoraggia gli sviluppatori a considerare le implicazioni etiche delle loro tecnologie e a progettare sistemi che rispettino i principi etici fondamentali.&nbsp;<\/p>\n\n\n\n<p>4. <strong>Consapevolezza e fiducia degli utenti<\/strong>: Informando gli utenti sulla natura artificiale dei contenuti che consumano, si contribuisce a costruire una maggiore consapevolezza critica e fiducia nell&#8217;ecosistema digitale. Gli utenti sono meglio equipaggiati per valutare la veridicit\u00e0 e la provenienza dei contenuti, il che \u00e8 fondamentale in un ambiente informativo sempre pi\u00f9 saturo.&nbsp;<\/p>\n\n\n\n<p>il requisito imposto dall&#8217;AI Act di contrassegnare chiaramente i contenuti generati o manipolati dall&#8217;IA rappresenta un passo importante verso la creazione di un ambiente digitale pi\u00f9 sicuro, etico e trasparente.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Garantendo che gli utenti siano consapevoli della natura artificiale dei contenuti che incontrano, questa disposizione aiuta a navigare le sfide poste dalla rapida evoluzione delle tecnologie di IA, promuovendo al contempo un utilizzo responsabile e informato di queste potenti strumenti.&nbsp;<\/p>\n\n\n\n<p><strong>Deep Fake e Riconoscimento delle Emozioni<\/strong>&nbsp;<\/p>\n\n\n\n<p>Nell&#8217;ambito dell&#8217;AI Act, una particolare attenzione \u00e8 rivolta alla questione dei <strong>deep fake <\/strong>e dei sistemi di categorizzazione biometrica o di riconoscimento delle emozioni, imponendo specifici obblighi di trasparenza per queste tecnologie.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Queste disposizioni sono essenziali per affrontare i potenziali rischi che queste applicazioni di intelligenza artificiale (IA) possono comportare in termini di diffusione di <strong>informazioni false o ingannevoli e di violazione della privacy individuale.<\/strong>&nbsp;<\/p>\n\n\n\n<p>Per quanto riguarda i deep fake, ovvero contenuti audiovisivi generati o modificati con tecniche di IA per apparire realistici, l&#8217;AI Act richiede che siano chiaramente <strong>etichettati <\/strong>come tali.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questo obbligo di trasparenza \u00e8 fondamentale per prevenire la diffusione di informazioni false o ingannevoli che potrebbero avere gravi ripercussioni su individui, organizzazioni e la societ\u00e0 nel suo complesso.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Etichettare i deep fake consente agli utenti di distinguerli da contenuti autentici, riducendo il rischio che siano utilizzati per manipolare l&#8217;opinione pubblica, diffamare individui o interferire nei processi democratici.&nbsp;<\/p>\n\n\n\n<p>Analogamente, i sistemi di categorizzazione <strong>biometrica e di riconoscimento delle emozioni<\/strong>, che analizzano dati biometrici o espressioni facciali per identificare individui o interpretare stati emotivi, devono informare gli utenti sul loro funzionamento.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questa trasparenza garantisce che gli utenti siano consapevoli delle capacit\u00e0 e dei limiti di questi sistemi, nonch\u00e9 delle potenziali implicazioni per la privacy e i diritti umani. La consapevolezza del funzionamento di queste tecnologie \u00e8 cruciale per consentire agli individui di fare scelte informate sull&#8217;interazione con tali sistemi e sull&#8217;eventuale condivisione dei propri dati biometrici o emozionali.&nbsp;<\/p>\n\n\n\n<p>Gli obblighi di trasparenza imposti dall&#8217;AI Act per i deep fake e i sistemi di categorizzazione biometrica o di riconoscimento delle emozioni sottolineano l&#8217;importanza di una chiara comunicazione e di una comprensione pubblica delle tecnologie di IA.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Queste misure sono essenziali per navigare le sfide poste dall&#8217;evoluzione dell&#8217;IA, promuovendo un&#8217;innovazione che sia non solo avanzata dal punto di vista tecnologico, ma anche responsabile e in armonia con i valori e i principi etici fondamentali.&nbsp;<\/p>\n\n\n\n<p><strong>Comunicazione Chiara e Accessibile<\/strong>&nbsp;<\/p>\n\n\n\n<p>L&#8217;AI Act stabilisce che le <strong>informazioni <\/strong>relative ai sistemi di intelligenza artificiale (IA), come la natura dei deep fake, le funzionalit\u00e0 dei sistemi di categorizzazione biometrica o di riconoscimento delle emozioni, devono essere comunicate agli utenti in maniera <strong>chiara e distinguibile<\/strong>.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questa comunicazione deve avvenire <strong>prima <\/strong>o al momento della prima interazione con il sistema, garantendo che gli utenti siano pienamente consapevoli della presenza e del funzionamento dell&#8217;IA prima di iniziare a utilizzarla.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questo requisito di trasparenza \u00e8 fondamentale per costruire un rapporto di fiducia tra tecnologia e utente, assicurando che quest&#8217;ultimo possa fare scelte informate riguardo all&#8217;utilizzo dei sistemi di IA.&nbsp;<\/p>\n\n\n\n<p>In aggiunta, l&#8217;AI Act pone una forte enfasi sui requisiti di accessibilit\u00e0, sottolineando l&#8217;importanza di rendere le informazioni <strong>comprensibili a tutti gli utenti<\/strong>, indipendentemente dalle loro capacit\u00e0. Questo significa che le informazioni devono essere presentate in formati che siano facilmente accessibili e comprensibili, tenendo conto delle diverse esigenze degli utenti, inclusi coloro che hanno disabilit\u00e0 visive, uditive, motorie o cognitive. L&#8217;obiettivo \u00e8 assicurare che ogni individuo, a prescindere dalle sue condizioni personali, possa comprendere la natura dei sistemi di IA con cui interagisce e le implicazioni di tale interazione.&nbsp;<\/p>\n\n\n\n<p>Questo approccio inclusivo non solo rispetta i principi di equit\u00e0 e non discriminazione, ma rafforza anche l&#8217;efficacia della normativa stessa. Rendendo le informazioni accessibili a un pubblico pi\u00f9 ampio, si aumenta la probabilit\u00e0 che gli utenti siano effettivamente informati e consapevoli dei sistemi di IA, promuovendo cos\u00ec un utilizzo pi\u00f9 sicuro e responsabile della tecnologia.&nbsp;<\/p>\n\n\n\n<p>&nbsp;Fornendo agli utenti informazioni chiare, distinguibili e accessibili, si contribuisce a promuovere un&#8217;innovazione tecnologica che sia inclusiva, etica e rispettosa dei diritti e delle esigenze di tutti. Questi principi sono essenziali per garantire che l&#8217;avanzamento dell&#8217;IA proceda in modo che beneficia l&#8217;intera societ\u00e0, costruendo un futuro in cui la tecnologia lavora a favore dell&#8217;umanit\u00e0 in tutta la sua diversit\u00e0.&nbsp;<\/p>\n\n\n\n<p><strong>Codici di Buone Pratiche<\/strong>&nbsp;<\/p>\n\n\n\n<p>L&#8217;AI Act stabilisce che le informazioni relative ai sistemi di intelligenza artificiale (IA), come la natura dei deep fake, le funzionalit\u00e0 dei sistemi di categorizzazione biometrica o di riconoscimento delle emozioni, devono essere comunicate agli utenti in maniera chiara e distinguibile.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questa comunicazione deve avvenire prima o al momento della<strong> prima interazione <\/strong>con il sistema, garantendo che gli utenti siano pienamente consapevoli della presenza e del funzionamento dell&#8217;IA prima di iniziare a utilizzarla. Questo requisito di trasparenza \u00e8 fondamentale per costruire un rapporto di fiducia tra tecnologia e utente, assicurando che quest&#8217;ultimo possa fare scelte informate riguardo all&#8217;utilizzo dei sistemi di IA.&nbsp;<\/p>\n\n\n\n<p>In aggiunta, l&#8217;AI Act pone una forte enfasi sui requisiti di accessibilit\u00e0, sottolineando l&#8217;importanza di rendere le informazioni comprensibili a tutti gli utenti, indipendentemente dalle loro capacit\u00e0.&nbsp;<\/p>\n\n\n\n<p>&nbsp;Questo significa che le informazioni devono essere presentate in formati che siano <strong>facilmente accessibili e comprensibil<\/strong>i, tenendo conto delle diverse esigenze degli utenti, inclusi coloro che hanno disabilit\u00e0 visive, uditive, motorie o cognitive.&nbsp;&nbsp;<\/p>\n\n\n\n<p>L&#8217;obiettivo \u00e8 assicurare che ogni individuo, a prescindere dalle sue condizioni personali, possa comprendere la natura dei sistemi di IA con cui interagisce e le implicazioni di tale interazione.&nbsp;<\/p>\n\n\n\n<p>Questo approccio <strong>inclusivo <\/strong>non solo rispetta i principi di equit\u00e0 e non discriminazione, ma rafforza anche l&#8217;efficacia della normativa stessa. Rendendo le informazioni accessibili a un pubblico pi\u00f9 ampio, si aumenta la probabilit\u00e0 che gli utenti siano effettivamente informati e consapevoli dei sistemi di IA, promuovendo cos\u00ec un utilizzo pi\u00f9 sicuro e responsabile della tecnologia.&nbsp;<\/p>\n\n\n\n<p>&nbsp;l&#8217;AI Act mira a creare un ambiente digitale in cui la trasparenza e l&#8217;accessibilit\u00e0 sono considerate priorit\u00e0 assolute nella comunicazione delle informazioni relative ai sistemi di IA.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Fornendo agli utenti informazioni chiare, distinguibili e accessibili, si contribuisce a promuovere un&#8217;innovazione tecnologica che sia inclusiva, etica e rispettosa dei diritti e delle esigenze di tutti. Questi principi sono essenziali per garantire che l&#8217;avanzamento dell&#8217;IA proceda in modo che beneficia l&#8217;intera societ\u00e0, costruendo un futuro in cui la tecnologia lavora a favore dell&#8217;umanit\u00e0 in tutta la sua diversit\u00e0.&nbsp;<\/p>\n\n\n\n<p><strong>Obblighi per i Fornitori di Modelli di IA per Finalit\u00e0 Generali nell&#8217;AI Act<\/strong>&nbsp;<\/p>\n\n\n\n<p>&nbsp;Questi modelli rappresentano una frontiera avanzata della tecnologia IA, distinti per la loro capacit\u00e0 di eseguire un&#8217;ampia gamma di compiti attraverso l&#8217;apprendimento da grandi volumi di dati. La loro versatilit\u00e0 e il potenziale impatto profondo sulla societ\u00e0 hanno reso necessaria l&#8217;adozione di specifiche disposizioni regolamentari per indirizzare le sfide uniche che presentano.&nbsp;<\/p>\n\n\n\n<p><strong>I modelli di IA per finalit\u00e0 genera<\/strong>li sono al centro di queste nuove disposizioni a causa della loro capacit\u00e0 di svolgere competenze diverse, che vanno dall&#8217;elaborazione del linguaggio naturale alla generazione di immagini, dal riconoscimento vocale all&#8217;analisi predittiva. Questa flessibilit\u00e0 li rende strumenti potenti per l&#8217;innovazione e il progresso in quasi tutti i settori, ma solleva anche questioni importanti riguardo alla sicurezza, alla privacy, ai diritti umani e all&#8217;etica.&nbsp;<\/p>\n\n\n\n<p>Riconoscendo l&#8217;ampio potenziale applicativo di questi modelli, l&#8217;AI Act mira a garantire che il loro sviluppo e utilizzo avvengano in modo responsabile e trasparente. Le specifiche disposizioni regolamentari includono requisiti rigorosi per la trasparenza, la spiegabilit\u00e0 e la responsabilit\u00e0.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questo significa che i fornitori di modelli di IA per finalit\u00e0 generali devono non solo informare gli utenti quando interagiscono con un sistema basato su IA, ma anche fornire dettagli sul funzionamento del sistema, sui dati utilizzati per l&#8217;addestramento e sui possibili bias o limitazioni.&nbsp;<\/p>\n\n\n\n<p>Inoltre, l&#8217;AI Act impone <strong>la valutazione dei rischi <\/strong>e l&#8217;implementazione di misure di mitigazione per prevenire o ridurre qualsiasi impatto negativo che questi sistemi potrebbero avere sulla societ\u00e0. Ci\u00f2 include la <strong>protezione della privacy<\/strong> e <strong>dei dati personali, <\/strong>la prevenzione della discriminazione e la garanzia che i modelli di IA non siano utilizzati in modo tale da danneggiare gli individui o gruppi vulnerabili.&nbsp;<\/p>\n\n\n\n<p>L&#8217;approccio adottato dall&#8217;AI Act nei confronti dei modelli di IA per finalit\u00e0 generali riflette una comprensione equilibrata del loro potenziale sia come forza motrice dell&#8217;innovazione sia come fonte di sfide etiche e sociali.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Stabilendo un quadro normativo specifico per questi modelli, l&#8217;AI Act mira a promuovere uno sviluppo tecnologico che sia non solo avanzato e innovativo, ma anche sicuro, etico e in linea con i valori e i principi fondamentali della societ\u00e0.&nbsp;<\/p>\n\n\n\n<p><strong>Definizione di Modelli di IA per Finalit\u00e0 Generali<\/strong>&nbsp;<\/p>\n\n\n\n<p>L&#8217;AI Act fornisce una definizione precisa e dettagliata dei modelli di intelligenza artificiale (IA) per finalit\u00e0 generali, evidenziando il loro ruolo centrale e il potenziale impatto all&#8217;interno del panorama tecnologico contemporaneo.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Secondo questa legislazione, un <strong>modello di IA per finalit\u00e0 generali<\/strong> viene descritto come un sistema che, potenzialmente attraverso l&#8217;impiego di tecniche avanzate di auto supervisione su larga scala, acquisisce una capacit\u00e0 notevolmente versatile, rendendolo idoneo a svolgere un&#8217;ampia variet\u00e0 di compiti differenti.&nbsp;&nbsp;<\/p>\n\n\n\n<p>un &#8220;modello di intelligenza artificiale&#8221; o &#8220;modello di IA&#8221; \u00e8 definito come:&nbsp;<\/p>\n\n\n\n<p>(66) <strong>&#8220;sistema di IA per scopi generali<\/strong>&#8220;: un sistema di IA basato su un modello di IA per scopi generali, che ha la capacit\u00e0 di servire una variet\u00e0 di scopi, sia previsti che non intenzionali, e di generare risultati per diversi tipi di compiti e attraverso domini diversi;&nbsp;<\/p>\n\n\n\n<p>67) <strong>&#8220;modello di IA per scopi generali&#8221;<\/strong>: un modello di IA che \u00e8 stato formato su un&#8217;ampia gamma di categorie di dati con l&#8217;obiettivo di acquisire conoscenze e capacit\u00e0 di carattere generale per assistere o pre-addestrare modelli o applicazioni a valle;&nbsp;<\/p>\n\n\n\n<p>Quindi, un modello di IA generale (general-pose AI model) \u00e8 un modello di intelligenza artificiale che \u00e8 stato addestrato su un&#8217;ampia gamma di categorie di dati con l&#8217;obiettivo di acquisire conoscenze e capacit\u00e0 generali per assistere o pre-addestrare modelli o applicazioni a valle.&nbsp;<\/p>\n\n\n\n<p>Questi modelli di IA generale hanno la capacit\u00e0 di servire una variet\u00e0 di scopi, sia previsti che imprevisti, e di generare output per diversi tipi di attivit\u00e0 e in diversi domini.&nbsp;<\/p>\n\n\n\n<p>Esempi noti di modelli di IA generale includono GPT-3 di OpenAI, LaMDA di Google, PaLM di Google e altri grandi modelli linguistici pre-addestrati su enormi quantit\u00e0 di dati di testo.La definizione mira a distinguere questi modelli di IA generale dai sistemi di IA pi\u00f9 tradizionali e specifici per un determinato compito o dominio.&nbsp;<\/p>\n\n\n\n<p>La definizione sottolinea due aspetti fondamentali che distinguono i modelli di IA per finalit\u00e0 generali da altri sistemi di IA pi\u00f9 specializzati.&nbsp;&nbsp;<\/p>\n\n\n\n<p>In primo luogo, la loro capacit\u00e0 di apprendere e operare in modo autosufficiente su larga scala, che permette loro di assimilare una vasta quantit\u00e0 di informazioni e di applicare queste conoscenze a compiti diversi, spesso senza necessit\u00e0 di ulteriore addestramento specifico per ogni nuovo compito.&nbsp;&nbsp;<\/p>\n\n\n\n<p>In secondo luogo, la loro significativa &#8220;generalit\u00e0&#8221; nelle capacit\u00e0, che li abilita a eseguire un&#8217;ampia gamma di funzioni, dall&#8217;elaborazione del linguaggio naturale alla generazione di contenuti, dall&#8217;analisi predittiva al riconoscimento di immagini e oltre.&nbsp;<\/p>\n\n\n\n<p>Tuttavia, l&#8217;AI Act chiarisce anche che <strong>questi modelli non includono sistemi utilizzati esclusivamente per scopi di ricerca, sviluppo o prototipazione.&nbsp;<\/strong>&nbsp;<\/p>\n\n\n\n<p>I sistemi di intelligenza artificiale (IA) utilizzati esclusivamente per scopi di ricerca, sviluppo o prototipazione sono esclusi dall&#8217;applicazione di alcune disposizioni dell&#8217;AI Act dell&#8217;Unione Europea.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questa esclusione \u00e8 specificata per consentire una maggiore libert\u00e0 e flessibilit\u00e0 nell&#8217;ambito della ricerca e dello sviluppo di nuove tecnologie di intelligenza artificiale, senza le restrizioni imposte dai regolamenti pi\u00f9 stringenti applicati ai modelli di IA destinati all&#8217;uso commerciale o operativo&nbsp;<\/p>\n\n\n\n<p>In particolare, l&#8217;AI Act non si applica a &#8220;qualsiasi attivit\u00e0 di ricerca, test o sviluppo riguardante sistemi di IA o modelli di IA prima che questi siano immessi sul mercato o messi in servizio&#8221;&nbsp;<\/p>\n\n\n\n<p>Questo significa che le attivit\u00e0 di ricerca e sviluppo che coinvolgono sistemi di IA possono procedere senza dover soddisfare i requisiti regolamentari di stabilit\u00e0 per i sistemi di IA ad alto rischio o per quelli che rientrano in altre categorie specifiche di regolamentazione previste dall&#8217;AI Act. Tuttavia, una volta che un sistema di IA sviluppato per la ricerca viene immesso sul mercato o messo in servizio per scopi diversi dalla ricerca, diventa soggetto alle disposizioni pertinenti dell&#8217;AI Act1&nbsp;<\/p>\n\n\n\n<p>Questa esclusione mira a sostenere l&#8217;innovazione e l&#8217;avanzamento tecnologico nel campo dell&#8217;IA, consentendo agli scienziati e agli ingegneri di esplorare nuove idee e concetti senza le barriere normative che regolano i prodotti finali destinati al mercato.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Tuttavia, \u00e8 importante notare che qualsiasi attivit\u00e0 di ricerca e sviluppo dovrebbe essere condotta in conformit\u00e0 con gli standard etici e professionali riconosciuti per la ricerca scientifica e conformit\u00e0 in conformit\u00e0 con il diritto applicabile dell&#8217;Unione.<strong>&nbsp;<\/strong>&nbsp;<\/p>\n\n\n\n<p>In sintesi, la definizione di modelli di IA per finalit\u00e0 generali fornita dall&#8217;AI Act riflette un equilibrio tra il riconoscimento del loro potenziale trasformativo e la necessit\u00e0 di garantire che il loro sviluppo e utilizzo avvengano in modo responsabile e sicuro.&nbsp;&nbsp;<\/p>\n\n\n\n<p><strong>Obblighi Specifici per i Fornitori<\/strong>&nbsp;<\/p>\n\n\n\n<p>I fornitori di modelli di IA per finalit\u00e0 generali sono soggetti a una serie di obblighi dettagliati nell&#8217;AI Act:&nbsp;<\/p>\n\n\n\n<p><strong>Obbligo di una documentazione tecnica dettagliata<\/strong>&nbsp;<\/p>\n\n\n\n<p>L&#8217;AI Act stabilisce che per i modelli di intelligenza artificiale (IA) \u00e8 indispensabile la compilazione e l&#8217;aggiornamento costante di <strong>una documentazione tecnica dettagliata.<\/strong> Questa documentazione deve essere resa prontamente disponibile alle autorit\u00e0 competenti su richiesta. Questo requisito \u00e8 fondamentale per garantire una trasparenza essenziale circa le modalit\u00e0 operative e gli obiettivi specifici del modello di IA in questione.&nbsp;<\/p>\n\n\n\n<p>La necessit\u00e0 di una documentazione tecnica completa sottolinea l&#8217;importanza di una comprensione approfondita e trasparente dei sistemi di IA da parte di coloro che ne regolamentano l&#8217;uso e la diffusione.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questa documentazione dovrebbe coprire aspetti critici come l&#8217;architettura del modello, i dati utilizzati per l&#8217;addestramento, i processi di apprendimento e validazione, nonch\u00e9 dettagli sulle misure di sicurezza e privacy implementate. Inoltre, \u00e8 essenziale che la documentazione includa informazioni sulle potenziali limitazioni del modello, sui casi d&#8217;uso previsti e sulle istruzioni per un utilizzo sicuro ed etico.&nbsp;<\/p>\n\n\n\n<p>Diversi scopi chiave.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Primo, facilita <strong>un&#8217;efficace supervisione regolatoria <\/strong>dei modelli di IA, assicurando che rispettino gli standard legali e etici stabiliti.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Secondo, <strong>promuove la fiducia tra gli utenti<\/strong> e le parti interessate, fornendo una base solida per valutare l&#8217;affidabilit\u00e0 e l&#8217;adeguatezza del modello per specifici contesti di applicazione.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Terzo, <strong>contribuisce a mitigare i rischi associati all&#8217;uso di IA,<\/strong> permettendo alle autorit\u00e0 e agli esperti di identificare e affrontare proattivamente potenziali problemi relativi alla sicurezza, alla privacy o all&#8217;equit\u00e0.&nbsp;<\/p>\n\n\n\n<p><strong>&nbsp;Informazioni per l&#8217;Integrazione&nbsp;<\/strong>&nbsp;<\/p>\n\n\n\n<p>I fornitori devono predisporre e rendere disponibili informazioni chiare per coloro che intendono integrare il modello di IA per finalit\u00e0 generali nei propri sistemi, facilitando cos\u00ec l&#8217;adozione responsabile della tecnologia.&nbsp;<\/p>\n\n\n\n<p>&#8211; <strong>Rispetto del Diritto d&#8217;Autore<\/strong>: \u00c8 necessario implementare una politica che garantisca il rispetto dei diritti d&#8217;autore, soprattutto in relazione ai dati utilizzati per l&#8217;addestramento del modello. Questo \u00e8 essenziale per proteggere la propriet\u00e0 intellettuale e assicurare l&#8217;uso etico delle risorse.&nbsp;<\/p>\n\n\n\n<p>&#8211; <strong>Pubblicazione di un Riepilogo<\/strong>: I fornitori sono tenuti a pubblicare un riepilogo dettagliato sui contenuti utilizzati per l&#8217;addestramento del modello, promuovendo la trasparenza sulle fonti dei dati e sui metodi di addestramento.&nbsp;<\/p>\n\n\n\n<p>&#8211; <strong>Rappresentante Autorizzato in UE<\/strong>: I fornitori con sede in paesi terzi devono nominare un rappresentante autorizzato all&#8217;interno dell&#8217;UE prima dell&#8217;immissione sul mercato del modello. Questo assicura che vi sia un punto di contatto all&#8217;interno dell&#8217;Unione per questioni regolamentari e di conformit\u00e0.&nbsp;<\/p>\n\n\n\n<p><strong>I Modelli di IA con Rischio Sistemico nell&#8217;AI Act: Un Approccio Basato sul Rischio<\/strong>&nbsp;<\/p>\n\n\n\n<p>&nbsp;Questo approccio permette di equilibrare efficacemente la promozione dell&#8217;innovazione tecnologica con la necessit\u00e0 di proteggere la societ\u00e0 dai potenziali rischi che l&#8217;IA pu\u00f2 comportare. All&#8217;interno di questo quadro, un&#8217;attenzione particolare \u00e8 rivolta ai modelli di IA per finalit\u00e0 generali, specialmente a quelli classificati come aventi un &#8220;<strong>rischio sistemico&#8221;<\/strong>.&nbsp;<\/p>\n\n\n\n<p>I modelli di IA con rischio sistemico sono quelli che, a causa della loro ampia applicabilit\u00e0 e del potenziale impatto significativo sul tessuto sociale, economico e politico, richiedono una regolamentazione pi\u00f9 rigorosa.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questa categoria di rischio \u00e8 definita in relazione al potenziale impatto significativo che tali sistemi possono avere sul mercato unico dell&#8217;Unione Europea, con particolare attenzione agli effetti che potrebbero manifestarsi sulla salute pubblica, la sicurezza, i diritti fondamentali degli individui o la societ\u00e0 nel suo insieme.&nbsp;<\/p>\n\n\n\n<p>La peculiarit\u00e0 del rischio sistemico risiede nella sua capacit\u00e0 di propagarsi su larga scala attraverso l&#8217;intera catena del valore, evidenziando cos\u00ec la necessit\u00e0 di un&#8217;approfondita valutazione e gestione del rischio.&nbsp;<\/p>\n\n\n\n<p>&nbsp;Per questi modelli, l&#8217;AI Act prevede requisiti specifici, tra cui:&nbsp;<\/p>\n\n\n\n<p>1. <strong>Valutazione rigorosa dei rischi:<\/strong> I fornitori di sistemi di IA devono condurre valutazioni approfondite dei rischi potenziali che i loro modelli possono introdurre, considerando non solo gli aspetti tecnici, ma anche gli impatti sociali, etici e legali.&nbsp;<\/p>\n\n\n\n<p>2.<strong> Misure di mitigazione<\/strong>: Sulla base della valutazione dei rischi, i fornitori devono implementare misure efficaci per mitigare i rischi identificati, garantendo che l&#8217;uso dei modelli di IA sia sicuro, etico e conforme alla legge.&nbsp;<\/p>\n\n\n\n<p>3. <strong>Trasparenza e responsabilit\u00e0<\/strong>: \u00c8 richiesta una maggiore trasparenza riguardo al funzionamento dei modelli di IA e alle decisioni da essi prese. Inoltre, deve essere chiaro chi \u00e8 responsabile per le decisioni e le azioni dei sistemi di IA, assicurando che vi sia sempre una possibilit\u00e0 di ricorso umano.&nbsp;<\/p>\n\n\n\n<p>4. <strong>Sorveglianza continua<\/strong>: I modelli di IA con rischio sistemico richiedono un monitoraggio costante per identificare nuovi rischi o problemi emergenti nel tempo, garantendo che le misure di mitigazione rimangano efficaci.&nbsp;<\/p>\n\n\n\n<p>5. <strong>Governance e responsabilit\u00e0<\/strong>:&nbsp; \u00c8 essenziale stabilire chiare linee di responsabilit\u00e0 per i fornitori e gli utilizzatori di modelli di IA, garantendo che vi siano meccanismi adeguati per la responsabilit\u00e0 e il ricorso in caso di danni o violazioni dei diritti.&nbsp;<\/p>\n\n\n\n<p>Questo approccio equilibrato riflette l&#8217;impegno dell&#8217;Unione Europea a guidare lo sviluppo e l&#8217;uso dell&#8217;IA in modo responsabile e sostenibile, ponendo le basi per un futuro in cui la tecnologia IA possa essere utilizzata a beneficio dell&#8217;intera societ\u00e0.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Classificazione dei Modelli con Rischio Sistemico&nbsp;<\/p>\n\n\n\n<p>Per essere classificato come avente un rischio sistemico secondo l&#8217;AI Act europeo, un modello di intelligenza artificiale (IA) deve evidenziare una capacit\u00e0 di impatto elevato, paragonabile o superiore a quella dei modelli di IA pi\u00f9 avanzati attualmente disponibili.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questa valutazione dell&#8217;impatto e del rischio associato al modello si basa sull&#8217;utilizzo di strumenti tecnici e metodologie adeguati, progettati per comprendere in modo accurato e dettagliato le potenziali conseguenze dell&#8217;impiego di tali sistemi.&nbsp;<\/p>\n\n\n\n<p>Il processo di valutazione include l&#8217;analisi delle capacit\u00e0 tecniche del modello, come la velocit\u00e0, l&#8217;accuratezza, l&#8217;ampiezza delle funzionalit\u00e0 e la capacit\u00e0 di generalizzazione da un contesto all&#8217;altro. Inoltre, si considerano le implicazioni etiche, sociali e legali dell&#8217;uso del modello, valutando come quest&#8217;ultimo possa influenzare la salute pubblica, la sicurezza, i diritti fondamentali e il benessere della societ\u00e0.&nbsp;<\/p>\n\n\n\n<p>Per i modelli di IA che rientrano nella categoria di rischio sistemico, l&#8217;AI Act prevede che possa essere necessaria una <strong>notifica alla Commissione Europea.<\/strong> Questo meccanismo di notifica serve a informare le autorit\u00e0 regolatorie sull&#8217;esistenza di sistemi potenzialmente ad alto rischio, consentendo loro di monitorare e, se necessario, intervenire per garantire che vengano adottate misure adeguate per mitigare i rischi associati.&nbsp;<\/p>\n\n\n\n<p><strong>Che cosa \u00e8 il FLOP<\/strong>&nbsp;<\/p>\n\n\n\n<p>Nell&#8217;ambito dell&#8217;AI Act (Artificial Intelligence Act) dell&#8217;Unione Europea, il termine &#8220;FLOP&#8221; (Floating Point Operations per Second) \u00e8 utilizzato come una misura della capacit\u00e0 computazionale di un modello di intelligenza artificiale.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Specificamente, il FLOP quantifica il numero di operazioni con numeri in virgola mobile che un computer o un sistema di intelligenza artificiale pu\u00f2 eseguire in un secondo.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questa metrica \u00e8 importante perch\u00e9 fornisce un indicatore approssimativo della potenza e della complessit\u00e0 di un modello di IA, in particolare dei modelli di intelligenza artificiale generale (GPAI &#8211; General Purpose AI Models)&nbsp;<\/p>\n\n\n\n<p>Nell&#8217;AI Act, un modello di GPAI viene considerato a &#8220;rischio sistemico&#8221; quando la potenza computazionale utilizzata per il suo addestramento supera una certa soglia di FLOP.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questa soglia \u00e8 significativa perch\u00e9 i modelli che superano questo limite sono considerati capacit\u00e0 di avere un impatto significativo sul mercato dell&#8217;Unione o di avere effetti negativi reali o prevedibili sulla salute pubblica, la sicurezza, i diritti fondamentali o la societ\u00e0 nel suo insieme, che possono essere propagati su larga scala attraverso la catena del valore&nbsp;<\/p>\n\n\n\n<p>&nbsp;l&#8217;AI Act introduce<strong> un criterio quantitativo specifico<\/strong> per facilitare l&#8217;identificazione dei modelli di IA di impatto elevato: un modello di IA sar\u00e0 considerato di impatto elevato se il calcolo utilizzato per il <strong>suo addestramento supera i 10^25 operazioni in virgola mobile per secondo (FLOP). <\/strong>Questo parametro riflette la complessit\u00e0 computazionale e la capacit\u00e0 di elaborazione richiesta per l&#8217;addestramento del modello, offrendo un indicatore oggettivo del livello di avanzamento tecnologico e potenziale impatto del sistema.&nbsp;<\/p>\n\n\n\n<p>Questa soglia \u00e8 significativa perch\u00e9 i modelli che superano questo limite sono considerati capacit\u00e0 di avere un impatto significativo sul mercato dell&#8217;Unione o di avere effetti negativi reali o prevedibili sulla salute pubblica, la sicurezza, i diritti fondamentali o la societ\u00e0 nel suo insieme, che possono essere propagati su larga scala attraverso la catena del valore&nbsp;<\/p>\n\n\n\n<p>La presunzione di impatto elevato per i modelli che superano questa soglia di calcolo mira a garantire che vengano prese in considerazione le dovute precauzioni per mitigare i rischi associati, promuovendo un uso responsabile e sicuro dell&#8217;IA.&nbsp;<\/p>\n\n\n\n<p>Tuttavia, \u00e8 importante notare che il valore esatto della soglia FLOP pu\u00f2 essere aggiornato verso l&#8217;alto o verso il basso dall&#8217;Ufficio Europeo per l&#8217;IA, in base alle evoluzioni tecnologiche e alle necessit\u00e0 regolamentari<a href=\"https:\/\/europa.eu\/newsroom\/ecpc-failover\/index_en.htm\" target=\"_blank\" rel=\"noreferrer noopener\">14<\/a>. Questo meccanismo di aggiustamento garantisce che la regolamentazione possa pertinente ed efficace nel tempo, adattandosi al rapido sviluppo delle tecnologie di intelligenza artificiale.&nbsp;<\/p>\n\n\n\n<p>In sintesi, l&#8217;approccio adottato dall&#8217;AI Act per la classificazione dei modelli di IA con rischio sistemico riflette un impegno a garantire che lo sviluppo e l&#8217;uso dell&#8217;IA avvengano in modo responsabile, con un&#8217;adeguata valutazione e gestione dei rischi per proteggere la societ\u00e0 e promuovere il benessere collettivo.&nbsp;<\/p>\n\n\n\n<p><strong>&nbsp; Obblighi Specifici per i Fornitori<\/strong>&nbsp;<\/p>\n\n\n\n<p><strong>Valutazione del Rischio Sistemico<\/strong>&nbsp;<\/p>\n\n\n\n<p>I fornitori sono tenuti a condurre una valutazione approfondita del rischio sistemico associato al loro modello di IA. Questo processo implica l&#8217;identificazione e l&#8217;analisi dei potenziali rischi che il modello potrebbe introdurre o amplificare, considerando l&#8217;impatto sulla societ\u00e0, l&#8217;economia, la salute pubblica, la sicurezza e i diritti fondamentali. L&#8217;obiettivo \u00e8 comprendere in modo completo le implicazioni dell&#8217;impiego del modello e stabilire misure preventive.&nbsp;<\/p>\n\n\n\n<p><strong>Analisi e Attenuazione dei Rischi<\/strong>&nbsp;<\/p>\n\n\n\n<p>Dopo aver identificato i rischi, i fornitori devono procedere con un&#8217;analisi dettagliata per valutare la gravit\u00e0 e la probabilit\u00e0 di ciascun rischio identificato. Sulla base di questa analisi, devono poi implementare misure concrete per mitigare i rischi, riducendo al minimo le possibilit\u00e0 che si verifichino incidenti o effetti negativi derivanti dall&#8217;uso del modello di IA.&nbsp;<\/p>\n\n\n\n<p><strong>Documentazione e Notifica degli Incidenti Gravi<\/strong>&nbsp;<\/p>\n\n\n\n<p>Nel caso si verifichino incidenti gravi legati all&#8217;uso del modello di IA, i fornitori sono obbligati a documentare accuratamente l&#8217;evento, analizzandone le cause e le circostanze. Questi incidenti devono essere notificati senza ingiustificato ritardo alle autorit\u00e0 competenti, fornendo tutte le informazioni necessarie per comprendere la natura e l&#8217;estensione dell&#8217;incidente, oltre alle misure adottate per risolverlo e prevenirne la ricorrenza.&nbsp;<\/p>\n\n\n\n<p><strong>Protezione della Cybersicurezza<\/strong>&nbsp;<\/p>\n\n\n\n<p>I fornitori devono garantire che sia il modello di IA sia l&#8217;infrastruttura fisica e digitale correlata siano protetti da rischi di cybersicurezza. Questo include l&#8217;adozione di misure tecniche e organizzative per prevenire accessi non autorizzati, perdita di dati, danneggiamenti o altre minacce alla sicurezza informatica. La protezione della cybersicurezza \u00e8 fondamentale non solo per la sicurezza del modello di IA stesso ma anche per la protezione dei dati e delle informazioni trattate dal modello.&nbsp;<\/p>\n\n\n\n<p>L&#8217;AI Act europeo introduce un quadro normativo complesso e articolato, destinato a regolare lo sviluppo e l&#8217;uso dei sistemi di intelligenza artificiale (IA) all&#8217;interno dell&#8217;Unione Europea. Attraverso la categorizzazione dei vari sistemi di IA in base al livello di rischio che presentano, l&#8217;AI Act mira a stabilire un equilibrio tra la promozione dell&#8217;innovazione tecnologica e la necessit\u00e0 di assicurare che l&#8217;IA sia utilizzata in modo sicuro, etico e responsabile.&nbsp;<\/p>\n\n\n\n<p>La suddivisione dei sistemi di IA in categorie di rischio \u2013 da inaccettabile a minimo \u2013 consente di applicare un approccio normativo differenziato, in cui gli obblighi e i requisiti imposti agli sviluppatori e agli utilizzatori di sistemi di IA sono proporzionati al potenziale impatto dei sistemi stessi sulla societ\u00e0 e sugli individui.&nbsp;&nbsp;<\/p>\n\n\n\n<p><strong>Quattro distinti livelli di rischio<\/strong>&nbsp;<\/p>\n\n\n\n<p>Il nucleo dell&#8217;AI Act europeo risiede nella sua innovativa classificazione dei sistemi di intelligenza artificiale (IA) in quattro distinti livelli di rischio: inaccettabile, alto, limitato e minimo. Questa classificazione costituisce la base per l&#8217;applicazione di misure normative calibrate in base al livello di rischio che ciascun sistema di IA rappresenta, garantendo un approccio equilibrato che promuove l&#8217;innovazione tecnologica proteggendo al contempo i cittadini e i loro diritti fondamentali. Di seguito, una panoramica di ciascuna categoria:&nbsp;<\/p>\n\n\n\n<p><strong>&nbsp;Rischio Inaccettabile<\/strong>&nbsp;<\/p>\n\n\n\n<p>I sistemi di IA rientranti in questa categoria sono quelli considerati incompatibili con i valori fondamentali dell&#8217;UE, poich\u00e9 presentano rischi inaccettabili per i diritti e la sicurezza delle persone.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Esempi di applicazioni di IA considerate a rischio inaccettabile includono:&nbsp;<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Sistemi di &#8220;social scoring&#8221; che valutano le persone basandosi sul loro comportamento sociale o su caratteristiche personali<a href=\"https:\/\/www.cerved.com\/community\/news\/ai-act-accordo-politico-intelligenza-artificiale-facciamo-il-punto\/\" target=\"_blank\" rel=\"noreferrer noopener\">12<\/a>.\u00a0<\/li>\n\n\n\n<li>Applicazioni che manipolano il comportamento umano in modo da eludere la volont\u00e0 libera degli utenti\u00a0<\/li>\n\n\n\n<li>Giocattoli che utilizzano assistenza vocale per incoraggiare comportamenti pericolosi nei minori\u00a0<\/li>\n\n\n\n<li>Sistemi di riconoscimento delle emozioni utilizzate in contesti lavorativi o educativi per estrapolare dati sensibili come l&#8217;orientamento sessuale o il credo religioso\u00a0<\/li>\n<\/ul>\n\n\n\n<p>Questi sistemi sono proibiti perch\u00e9 contraddicono i principi fondamentali dell&#8217;UE come il rispetto della dignit\u00e0 umana, della democrazia e dello stato di diritto<a href=\"https:\/\/www.agendadigitale.eu\/cultura-digitale\/ai-act-ci-siamo-ecco-come-plasmera-il-futuro-dellintelligenza-artificiale-in-europa\/\" target=\"_blank\" rel=\"noreferrer noopener\">15<\/a>. L&#8217;AI Act impone un divieto assoluto su queste tecnologie, ritenendo che i rischi che presentino superino qualsiasi potenziale beneficio.&nbsp;<\/p>\n\n\n\n<p>L&#8217;uso di IA in queste applicazioni \u00e8 proibito o severamente limitato.&nbsp;<\/p>\n\n\n\n<p><strong>Rischio Alto<\/strong>&nbsp;<\/p>\n\n\n\n<p>Secondo l&#8217;AI Act dell&#8217;Unione Europea, i sistemi di intelligenza artificiale (AI) considerati ad &#8220;alto rischio&#8221; sono quelli che soddisfano una delle seguenti condizioni:&nbsp;<\/p>\n\n\n\n<ol class=\"wp-block-list\" start=\"1\">\n<li>I sistemi AI utilizzati come componenti di sicurezza di prodotti trattati dalla legislazione di armonizzazione dell&#8217;UE elencata nell&#8217;Allegato I, e tali prodotti devono essere sottoposti a una valutazione di conformit\u00e0 di terze parti prima dell&#8217;immissione sul mercato\u00a0<\/li>\n<\/ol>\n\n\n\n<p>Esempi includono sistemi AI utilizzati in dispositivi medici, automobili, aeromobili, macchinari industriali, ecc.&nbsp;<\/p>\n\n\n\n<ol class=\"wp-block-list\" start=\"2\">\n<li>Sistemi AI elencati nell&#8217;Allegato III della legge AI, che copre le seguenti aree ad alto rischio\u00a0<\/li>\n<\/ol>\n\n\n\n<p>a) Biometria (identificazione e categorizzazione biometrica remota, riconoscimento delle emozioni)&nbsp;&nbsp;<\/p>\n\n\n\n<p>b) Infrastrutture critiche:&nbsp;&nbsp;<\/p>\n\n\n\n<p>Le &#8220;infrastrutture critiche&#8221; nell&#8217;ambito dell&#8217;AI Act dell&#8217;Unione Europea si sono distribuite a sistemi, reti, asset o servizi essenziali che sono necessari per il mantenimento delle funzioni sociali vitali, la salute, la sicurezza, la sicurezza o il benessere economico delle persone.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questi possono includere infrastrutture nei settori dell&#8217;energia, dei trasporti, dell&#8217;acqua, della sanit\u00e0, delle comunicazioni&nbsp;<\/p>\n\n\n\n<p>Questo perch\u00e9 un malfunzionamento o un fallimento di tali sistemi potrebbe avere conseguenze gravi per la salute e la sicurezza delle persone o potrebbe causare interruzioni significative nelle attivit\u00e0 sociali ed economiche&nbsp;<\/p>\n\n\n\n<p>c) Istruzione e formazione professionale:&nbsp;&nbsp;<\/p>\n\n\n\n<p>Le applicazioni di IA in questo settore possono includere, ma non sono limitate a:&nbsp;<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Sistemi automatizzati per la valutazione degli esami o la correzione dei compiti\u00a0<\/li>\n\n\n\n<li>Piattaforme di apprendimento personalizzato che utilizzano algoritmi per adattare il materiale didattico alle esigenze individuali degli studenti\u00a0<\/li>\n\n\n\n<li>Sistemi di ammissione automatizzati che possono determinare l&#8217;accesso e l&#8217;assegnazione a corsi educativi e formativi\u00a0<\/li>\n<\/ul>\n\n\n\n<p>Implicazioni per gli Stakeholder&nbsp;<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Istituzioni Educative : Come utilizzatori di questi sistemi, devono assicurarsi che il loro impiego sia conforme alle normative, inclusa la supervisione adeguata e la trasparenza verso gli studenti e il personale\u00a0<\/li>\n\n\n\n<li>Studenti e Personale : Hanno il diritto di essere informati su come i sistemi di IA sono utilizzati nelle loro istituzioni educative e di contestare decisioni che li riguardano e che sono state prese con l&#8217;assistenza di IA\u00a0<\/li>\n<\/ul>\n\n\n\n<p><strong>Il caso Bocconi<\/strong>&nbsp;<\/p>\n\n\n\n<p>Un caso emblematico delle problematiche legate all&#8217;uso dell&#8217;intelligenza artificiale (IA) in ambito educativo \u00e8 quello dell&#8217;Universit\u00e0 Commerciale Luigi Bocconi di Milano, sanzionata dal Garante per la protezione dei dati personali nel 2021 per violazione del GDPR durante gli esami online con sistema di supervisione&nbsp;<\/p>\n\n\n\n<p>Il Caso dell&#8217;Universit\u00e0 Bocconi&nbsp;<\/p>\n\n\n\n<p>Durante la pandemia di COVID-19, l&#8217;Universit\u00e0 Bocconi ha adottato un sistema di proctoring basato sull&#8217;IA per monitorare gli studenti durante gli esami da remoto.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questo sistema prevedeva:&nbsp;<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Acquisizione di immagini video e audio degli studenti durante la prova\u00a0<\/li>\n\n\n\n<li>Analisi biometrica facciale e rilevamento di movimenti e suoni anomali tramite algoritmi di IA\u00a0<\/li>\n\n\n\n<li>Registrazione dello schermo e delle attivit\u00e0 degli studenti\u00a0<\/li>\n<\/ul>\n\n\n\n<p>Il Garante ha rilevato diverse criticit\u00e0 in questa pratica:&nbsp;<\/p>\n\n\n\n<p><strong>Mancanza di una base giuridica valida :<\/strong> L&#8217;Universit\u00e0 non ha fornito una motivazione legittima per il trattamento biometrico dei dati, in violazione dei principi di liceit\u00e0 e correttezza del GDPR<a href=\"https:\/\/www.leexe.it\/proctoring-e-gdpr-perche-il-garante-ha-bocciato-lesame-a-distanza-delluniversita-bocconi\/\" target=\"_blank\" rel=\"noreferrer noopener\">5<\/a>.&nbsp;<\/p>\n\n\n\n<p><strong>Violazione del principio di minimizzazione<\/strong> : Le modalit\u00e0 di acquisizione dei dati erano eccessive rispetto alle finalit\u00e0 dichiarate di prevenzione delle frodi<a href=\"https:\/\/www.leexe.it\/proctoring-e-gdpr-perche-il-garante-ha-bocciato-lesame-a-distanza-delluniversita-bocconi\/\" target=\"_blank\" rel=\"noreferrer noopener\">5<\/a>.&nbsp;<\/p>\n\n\n\n<p><strong>Mancata valutazione d&#8217;impatto <\/strong>: Non \u00e8 stata condotta una valutazione d&#8217;impatto sulla protezione dei dati per un trattamento ad alto rischio come quello biometrico&nbsp;<\/p>\n\n\n\n<p><strong>Informativa carente<\/strong> : L&#8217;informativa fornita agli studenti era incompleta e non specificava adeguatamente le logiche del sistema di IA utilizzato<a href=\"https:\/\/www.leexe.it\/proctoring-e-gdpr-perche-il-garante-ha-bocciato-lesame-a-distanza-delluniversita-bocconi\/\" target=\"_blank\" rel=\"noreferrer noopener\">5<\/a>.&nbsp;<\/p>\n\n\n\n<p>In conseguenza di queste violazioni, il Garante ha ingiunto all&#8217;Universit\u00e0 Bocconi il divieto di utilizzo del sistema di proctoring con IA e ha comminato una sanzione pecuniaria di 200.000 euro&nbsp;<\/p>\n\n\n\n<p>Questo caso evidenzia i rischi legati all&#8217;uso non regolamentato dell&#8217;IA, specialmente in contesti sensibili come l&#8217;istruzione, e sottolinea l&#8217;importanza di adottare misure adeguate per tutelare i diritti e le libert\u00e0 fondamentali degli interessati quando si impiegano tecnologie invasive come il riconoscimento biometrico.&nbsp;<\/p>\n\n\n\n<p>d) Occupazione e gestione dei lavoratori:&nbsp;&nbsp;<\/p>\n\n\n\n<p>&nbsp;Questo include l&#8217;impiego di sistemi di IA in processi quali il reclutamento, la valutazione delle prestazioni, la gestione delle risorse umane e la sorveglianza sul posto di lavoro.&nbsp;<\/p>\n\n\n\n<p>Esempi di applicazioni di IA in questo settore&nbsp;<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Sistemi di reclutamento automatizzati : utilizzo di algoritmi per filtrare i curriculum vitae e selezionare candidati.\u00a0<\/li>\n\n\n\n<li>Monitoraggio del Comportamento dei Lavoratori : Impiego di sistemi di IA per monitorare la produttivit\u00e0 o il comportamento dei lavoratori, spesso sollevando preoccupazioni relative alla privacy e alla sorveglianza eccessiva.\u00a0<\/li>\n\n\n\n<li>Valutazione delle Prestazioni : Algoritmi che analizzano le prestazioni dei lavoratori, potenzialmente influenzando decisioni relative a promozioni, compensi o terminazioni.\u00a0<\/li>\n<\/ul>\n\n\n\n<p>e) Accesso a servizi essenziali pubblici e privati:&nbsp;&nbsp;<\/p>\n\n\n\n<p>questo include l&#8217;uso di sistemi di IA in servizi che sono fondamentali per il benessere quotidiano delle persone, come l&#8217;assistenza sanitaria, l&#8217;istruzione, i servizi finanziari, i servizi pubblici di base (ad esempio, l&#8217;acqua e l&#8217; energia), i trasporti e altri servizi che hanno un impatto significativo sulla vita delle persone&nbsp;&nbsp;<\/p>\n\n\n\n<p>Esempi di applicazioni di IA in questo settore&nbsp;<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Sistemi di IA per l&#8217;Elaborazione delle Domande di Benefici Sociali : Utilizzo di algoritmi per valutare l&#8217;idoneit\u00e0 ai benefici sociali\u00a0<\/li>\n\n\n\n<li>Piattaforme di IA per la Gestione dei Servizi Sanitari : Sistemi che assistono nella diagnosi, nel trattamento e nella gestione delle cure sanitarie\u00a0<\/li>\n\n\n\n<li>Sistemi di IA per l&#8217;Accesso ai Servizi Finanziari : Algoritmi utilizzati per la valutazione del merito creditizio o per la fornitura di assicurazioni\u00a0<\/li>\n<\/ul>\n\n\n\n<p>f) Applicazione della legge&nbsp;&nbsp;<\/p>\n\n\n\n<p>Alcuni esempi di applicazioni di IA nell&#8217;applicazione della legge classificate come ad alto rischio includono:&nbsp;<\/p>\n\n\n\n<p>Sistemi di IA per l&#8217;identificazione biometrica da remoto a posteriori (non in tempo reale) di persone fisiche in spazi accessibili al pubblico a fini di applicazione della legge.&nbsp;<\/p>\n\n\n\n<p>Sistemi di polizia predittiva che valutano il rischio di un individuo di commettere reati in futuro, purch\u00e9 tale valutazione non si basi esclusivamente sulla profilazione basata su caratteristiche sensibili.&nbsp;<\/p>\n\n\n\n<p>Sistemi di IA per l&#8217;analisi dell&#8217;affidabilit\u00e0 delle prove raccolte durante le indagini penali&nbsp;<\/p>\n\n\n\n<p>Sistemi di IA per valutare se una persona fisica possa essere vittima di un reato&nbsp;<\/p>\n\n\n\n<p>Tuttavia, l&#8217;AI Act consente anche alcune esenzioni specifiche per le autorit\u00e0 di contrasto, consentendo loro di utilizzare sistemi di IA vietati in altri contesti per motivi di sicurezza pubblica, prevenzione, indagine e perseguimento di reati&nbsp;<\/p>\n\n\n\n<p>Le esenzioni specifiche nel contesto dell&#8217;AI Act dell&#8217;Unione Europea riguardano principalmente l&#8217;uso di sistemi di intelligenza artificiale (IA) per scopi di sicurezza nazionale e applicazione della legge.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Queste esenzioni sono state introdotte per permettere alle autorit\u00e0 di utilizzare certe tecnologie di IA in situazioni che richiedono misure di sicurezza eccezionali, pur mantenendo un equilibrio con il rispetto dei diritti fondamentali. Ecco una panoramica delle esenzioni specifiche:&nbsp;<\/p>\n\n\n\n<p>Esenzioni per la Sicurezza Nazionale :&nbsp;<\/p>\n\n\n\n<p>L&#8217;AI Act introduce un&#8217;ampia esenzione per le attivit\u00e0 legate alla sicurezza nazionale. Questo significa che i sistemi di IA utilizzati per la sicurezza nazionale possono essere esentati dall&#8217;applicazione di molte delle disposizioni dell&#8217;AI Act, inclusi i requisiti di trasparenza e valutazione dell&#8217;impatto sui diritti fondamentali&nbsp;<\/p>\n\n\n\n<p>Esenzioni per l&#8217;Applicazione della Legge :&nbsp;<\/p>\n\n\n\n<p>L&#8217;uso di sistemi di identificazione biometrica remota (RBI) da parte delle autorit\u00e0 di applicazione della legge \u00e8 proibito in linea di principio, ma sono previste eccezioni ben definite e strettamente limitate. Per esempio, l&#8217;uso &#8220;in tempo reale&#8221; di RBI pu\u00f2 essere autorizzato solo se sono soddisfatte rigorose salvaguardie, come la limitazione temporale e geografica e l&#8217;autorizzazione giudiziaria o amministrativa specifica&nbsp;<\/p>\n\n\n\n<p>Le esenzioni per l&#8217;applicazione della legge includono anche l&#8217;uso di RBI &#8220;post-evento&#8221;, che richiede autorizzazione giudiziaria ed \u00e8 collegato a un reato penale3&nbsp;<\/p>\n\n\n\n<p>g) Gestione dell&#8217; immigrazione e controllo delle frontiere&nbsp;&nbsp;<\/p>\n\n\n\n<p>Alcuni esempi di applicazioni di IA in questo settore classificato come ad alto rischio includono:&nbsp;<\/p>\n\n\n\n<p>Sistemi di identificazione biometrica da remoto a posteriori (non in tempo reale) di persone fisiche in spazi accessibili al pubblico a fini di applicazione della legge1&nbsp;<\/p>\n\n\n\n<p>Sistemi di polizia predittiva che valutano il rischio di un individuo di commettere reati in futuro, purch\u00e9 tale valutazione non si basi esclusivamente sulla profilazione basata su caratteristiche sensibili&nbsp;<\/p>\n\n\n\n<p>Sistemi di IA per l&#8217;analisi dell&#8217;affidabilit\u00e0 delle prove raccolte durante le indagini penali relative all&#8217;immigrazione&nbsp;<\/p>\n\n\n\n<p>Sistemi di IA per valutare se una persona fisica possa essere vittima di un reato legato all&#8217;immigrazione&nbsp;<\/p>\n\n\n\n<p>Esenzioni per la Gestione delle Frontiere e l&#8217;Immigrazione :&nbsp;<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>I sistemi di IA utilizzati per la gestione delle frontiere e l&#8217;immigrazione possono essere esentati da alcune disposizioni dell&#8217;AI Act, specialmente quando si tratta di valutare la sicurezza o gestire flussi migratori critici\u00a0<\/li>\n<\/ul>\n\n\n\n<p>h) Amministrazione della giustizia e processi democratici&nbsp;<br>Esempi di applicazioni di IA in questo settore&nbsp;<\/p>\n\n\n\n<p>Sistemi di IA per la Gestione delle Elezioni : Algoritmi utilizzati per ottimizzare il processo elettorale o per analizzare i dati elettorali1&nbsp;<\/p>\n\n\n\n<p>Piattaforme di IA per la Gestione dei Processi Giudiziari : Sistemi che assistono nella gestione dei casi, nella distribuzione dei carichi di lavoro giudiziario o nell&#8217;analisi delle decisioni legali&nbsp;<br>&nbsp;<\/p>\n\n\n\n<p>Un sistema di intelligenza artificiale (IA) non \u00e8 considerato ad alto rischio se non comporta un rischio significativo per la salute, la sicurezza oi diritti fondamentali delle persone. Questo principio \u00e8 specificato nell&#8217;AI Act dell&#8217;Unione Europea, che \u00e8 prevista una deroga per i certi sistemi di IA elencati nell&#8217;Allegato III&nbsp;<\/p>\n\n\n\n<p><strong>Deroghe Specifiche<\/strong>&nbsp;<\/p>\n\n\n\n<p>Secondo l&#8217;articolo 6 dell&#8217;AI Act, un sistema di IA incluso nell&#8217;Allegato III non sar\u00e0 considerato ad alto rischio se non presenta un rischio significativo di danni alla salute, alla sicurezza o ai diritti fondamentali delle persone naturali. Questo include sistemi di IA che:&nbsp;<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Sono destinati a svolgere compiti procedurali stretti.\u00a0<\/li>\n\n\n\n<li>Migliorano i risultati di un&#8217;attivit\u00e0 umana precedentemente completata.\u00a0<\/li>\n\n\n\n<li>Rilevano schemi decisionali o deviazioni da schemi decisionali precedenti e non sono destinati a sostituire o influenzare la valutazione umana precedente senza un&#8217;adeguata revisione umana.\u00a0<\/li>\n\n\n\n<li>Svolgono un compito preparatorio per una valutazione rilevante per gli scopi dei casi d&#8217;uso elencati nell&#8217;Allegato III\u00a0<\/li>\n<\/ul>\n\n\n\n<p>Questo significa che alcuni sistemi di IA, anche se inizialmente potrebbero sembrare ad alto rischio in base alla loro funzione o al settore di applicazione, potrebbero essere esentati da questa classificazione se si dimostra che il loro impiego non incide in modo significativo su queste ambizioni critiche.&nbsp;<\/p>\n\n\n\n<p><strong>Introduzione del FRIA<\/strong>&nbsp;<\/p>\n\n\n\n<p>L&#8217;introduzione della valutazione d&#8217;impatto sui diritti fondamentali, nota come FRIA (Fundamental Rights Impact Assessment), nell&#8217;AI Act rappresenta un passo significativo nella regolamentazione dell&#8217;intelligenza artificiale all&#8217;interno dell&#8217;Unione Europea&nbsp;<\/p>\n\n\n\n<p>Questa valutazione richiede agli sviluppatori e ai fornitori di sistemi di IA ad alto rischio di analizzare e documentare l&#8217;impatto potenziale dei loro sistemi sui diritti fondamentali delle persone prima di adottarli per qualsiasi utilizzo&nbsp;<\/p>\n\n\n\n<p>&nbsp;La FRIA mira a garantire che l&#8217;uso dei sistemi di IA sia non solo tecnologicamente affidabile ma anche eticamente responsabile, rispettando i diritti umani e le libert\u00e0 fondamentali.&nbsp;<\/p>\n\n\n\n<p><strong>Condizioni per la Deroga<\/strong>&nbsp;<\/p>\n\n\n\n<p>Per applicare questa deroga, il fornitore del sistema di IA deve documentare la sua valutazione prima che il sistema sia immesso sul mercato o messo in servizio. Questa documentazione deve essere disponibile su richiesta delle autorit\u00e0 competenti nazionali&nbsp;<\/p>\n\n\n\n<p>i fornitori di sistemi di intelligenza artificiale (IA) devono essere in grado di dimostrare, attraverso adeguata documentazione, le ragioni per cui la loro applicazione non dovrebbe essere considerata ad alto rischio. Questo aspetto \u00e8 cruciale per garantire che i sistemi di IA siano conformi alle normative stabilite dall&#8217;AI Act, in particolare per quelli che potrebbero rientrare nelle categorie di rischio pi\u00f9 elevate ma che presentano o funzionalit\u00e0 che li escludono da tali classificazioni.&nbsp;<\/p>\n\n\n\n<p>Inoltre, la documentazione tecnica richiesta deve includere dettagli su come il sistema \u00e8 stato progettato, sviluppato e destinato ad essere utilizzato, assicurando che sia conforme ai requisiti di sicurezza, affidabilit\u00e0 e trasparenza imposti dal regolamento&nbsp;<br>&nbsp;<\/p>\n\n\n\n<p><strong>Importanza della Deroga<\/strong>&nbsp;<\/p>\n\n\n\n<p>Questa deroga \u00e8 cruciale perch\u00e9 permette una certa flessibilit\u00e0 nell&#8217;applicazione delle norme dell&#8217;AI Act, riducendo l&#8217;onere regolamentare per i sistemi di IA che, pur rientrando nelle categorie potenzialmente ad alto rischio, dimostra di non presentare rischi significativi.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questo potrebbe facilitare l&#8217;innovazione e l&#8217;adozione di tecnologie di IA in settori meno critici, riducendo gli oneri regolamentari per gli sviluppatori.&nbsp;<\/p>\n\n\n\n<p>Questo aiuta a bilanciare la promozione dell&#8217;innovazione e l&#8217;uso sicuro delle tecnologie IA&nbsp;<\/p>\n\n\n\n<p>Questo adempimento obbliga i fornitori di sistemi ad alto rischio da prendere in considerazione attentamente come le loro tecnologie potrebbero influenzare le persone e la societ\u00e0, promuovendo uno sviluppo e un&#8217;implementazione dell&#8217;IA pi\u00f9 responsabili.&nbsp;<\/p>\n\n\n\n<p>In sintesi, l&#8217;AI Act fornisce un meccanismo per escludere certi sistemi di IA dall&#8217;essere classificazione come ad alto rischio, a condizione che non presentino rischi significativi per la salute, la sicurezza oi diritti fondamentali, il che \u00e8 fondamentale per facilitare lo sviluppo tecnologico pur mantenendo elevati standard di protezione&nbsp;<\/p>\n\n\n\n<p>l&#8217;AI Act europeo pone un&#8217;enfasi particolare sui sistemi di IA classificati come ad alto rischio, introducendo una serie di requisiti e obblighi precisi volti a garantire che l&#8217;impiego di tali sistemi non metta a rischio la sicurezza dei cittadini o infranga i principi etici e i diritti fondamentali. Questi requisiti si articolano come segue:&nbsp;<\/p>\n\n\n\n<p><strong>Valutazione e Gestione del Rischio<\/strong>&nbsp;<\/p>\n\n\n\n<p>I fornitori di sistemi di IA ad alto rischio sono obbligati a effettuare valutazioni del rischio dettagliate, identificando potenziali pericoli e vulnerabilit\u00e0 associati all&#8217;uso dei loro sistemi. Sulla base di queste valutazioni, devono poi implementare misure di mitigazione adeguate per prevenire danni, abusi o qualsiasi altro impatto negativo, assicurando un livello di sicurezza conforme alle aspettative.&nbsp;<\/p>\n\n\n\n<p>Questa innovazione, sostenuta dall&#8217;azione del Parlamento Europeo e grazie al contributo determinante del co-rapporteur italiano Brando Benifei, sottolinea l&#8217;impegno dell&#8217;UE a garantire che lo sviluppo e l&#8217;uso dell&#8217;IA non solo perseguano l&#8217;innovazione e il progresso tecnologico, ma lo facciano nel pieno rispetto dei diritti fondamentali dei cittadini.&nbsp;<\/p>\n\n\n\n<p>La FRIA \u00e8 concepita per essere uno strumento attraverso il quale gli sviluppatori e i fornitori di sistemi di IA ad alto rischio sono tenuti a valutare e documentare l&#8217;impatto che le loro applicazioni possono avere sui diritti fondamentali prima che queste siano immesse sul mercato.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questo include una vasta gamma di diritti, tra cui il diritto alla privacy, alla protezione dei dati, alla non discriminazione, all&#8217;equit\u00e0 e alla giustizia. L&#8217;obiettivo della FRIA \u00e8 di identificare, mitigare o eliminare i rischi per i diritti fondamentali nelle fasi iniziali dello sviluppo del prodotto, promuovendo un approccio proattivo alla gestione dei rischi associati all&#8217;IA.&nbsp;<\/p>\n\n\n\n<p>L&#8217;introduzione della FRIA nell&#8217;AI Act riflette una serie di principi chiave:&nbsp;<\/p>\n\n\n\n<p>1. <strong>Prevenzione<\/strong>: La FRIA mira a prevenire violazioni dei diritti fondamentali ancor prima che si verifichino, richiedendo una valutazione approfondita dei potenziali impatti negativi dell&#8217;IA e l&#8217;implementazione di misure di mitigazione adeguate.&nbsp;<\/p>\n\n\n\n<p>2. <strong>Trasparenza<\/strong>: Questo strumento promuove la trasparenza nello sviluppo e nell&#8217;uso dell&#8217;IA, incentivando i fornitori a rendere pubbliche le valutazioni di impatto e a condividere le misure adottate per proteggere i diritti fondamentali.&nbsp;<\/p>\n\n\n\n<p>3. <strong>Responsabilit\u00e0<\/strong>: La FRIA attribuisce ai fornitori di sistemi di IA ad alto rischio la responsabilit\u00e0 di valutare e gestire l&#8217;impatto delle loro tecnologie sui diritti fondamentali, sottolineando l&#8217;importanza della responsabilit\u00e0 etica nell&#8217;innovazione tecnologica.&nbsp;<\/p>\n\n\n\n<p>4. <strong>Coinvolgimento degli stakeholder<\/strong>:&nbsp; Incoraggiando la consultazione con le parti interessate durante la valutazione d&#8217;impatto, la FRIA promuove un dialogo costruttivo tra sviluppatori, utenti, esperti in diritti umani e altre parti interessate, per assicurare che le preoccupazioni relative ai diritti fondamentali siano adeguatamente considerate e affrontate.&nbsp;<\/p>\n\n\n\n<p>L&#8217;incoraggiamento a coinvolgere gli stakeholder, quali associazioni di categoria e di tutela dei consumatori, nel processo di valutazione d&#8217;impatto delle applicazioni di intelligenza artificiale (IA), rappresenta un aspetto significativo dell&#8217;AI Act europeo.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Sebbene questa raccomandazione sia stata inclusa nei preamboli del regolamento e non sia stata formalizzata come un requisito obbligatorio, sottolinea l&#8217;importanza di un approccio partecipativo e inclusivo nello sviluppo e nell&#8217;implementazione delle tecnologie IA.&nbsp;<\/p>\n\n\n\n<p>Coinvolgere attivamente gli stakeholder nel processo di valutazione offre diversi vantaggi:&nbsp;<\/p>\n\n\n\n<p>1.<strong> Comprensione Approfondita dei Rischi:<\/strong> Gli stakeholder, avendo prospettive e interessi diversi, possono contribuire a identificare una gamma pi\u00f9 ampia di potenziali rischi e impatti delle applicazioni di IA, inclusi quelli che potrebbero non essere immediatamente evidenti agli sviluppatori o ai fornitori di sistemi. Questo consente di ottenere una comprensione pi\u00f9 completa e sfaccettata dei rischi reali associati all&#8217;uso dell&#8217;IA.&nbsp;<\/p>\n\n\n\n<p>2. <strong>Sviluppo di Soluzioni Condivise<\/strong>: Attraverso il dialogo e la collaborazione con gli stakeholder, \u00e8 possibile elaborare strategie di mitigazione e soluzioni ai problemi che siano pi\u00f9 efficaci, equilibrate e accettate da un ampio spettro di parti interessate. Questo approccio partecipativo contribuisce a creare un consenso pi\u00f9 ampio sulle pratiche di IA responsabili e sostenibili.&nbsp;<\/p>\n\n\n\n<p>3. <strong>Promozione della Trasparenza e della Fiducia<\/strong>: Il coinvolgimento degli stakeholder nel processo di valutazione aumenta la trasparenza delle decisioni e delle metodologie adottate dagli sviluppatori e dai fornitori di IA. Questo, a sua volta, pu\u00f2 rafforzare la fiducia del pubblico nelle applicazioni di IA e nelle aziende che le sviluppano, dimostrando un impegno verso la responsabilit\u00e0 sociale e la tutela dei diritti dei cittadini.&nbsp;<\/p>\n\n\n\n<p>4. <strong>Allineamento con i Valori Societali:<\/strong> La partecipazione degli stakeholder assicura che lo sviluppo e l&#8217;uso delle tecnologie IA siano allineati con i valori, le aspettative e le norme sociali prevalenti. Ci\u00f2 \u00e8 particolarmente importante in un contesto europeo, dove la protezione dei diritti fondamentali e la promozione del bene comune sono valori centrali.&nbsp;<\/p>\n\n\n\n<p><strong>Le modifiche<\/strong>&nbsp;<\/p>\n\n\n\n<p>La Valutazione d&#8217;Impatto sui Diritti Fondamentali (FRIA), inizialmente proposta per essere applicata a tutte le applicazioni di intelligenza artificiale (IA) considerate ad alto rischio, ha subito modifiche significative nel corso del processo legislativo che ha portato al compromesso finale dell&#8217;AI Act.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questo cambiamento ha ristretto l&#8217;obbligatoriet\u00e0 della FRIA, focalizzandola principalmente sui soggetti pubblici e su quelli privati che erogano servizi pubblici, inclusi enti come le <strong>banche<\/strong>.&nbsp;&nbsp;&nbsp;<\/p>\n\n\n\n<p>Prima che queste applicazioni di IA ad alto rischio possano essere utilizzate in contesti pubblici, \u00e8 ora necessario condurre una valutazione approfondita delle potenziali conseguenze sui diritti fondamentali delle persone interessate.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questa valutazione deve identificare chiaramente i rischi e definire misure adeguate per mitigarli, garantendo che l&#8217;uso dell&#8217;IA non comprometta i diritti e le libert\u00e0 individuali.&nbsp;<\/p>\n\n\n\n<p>Le misure da considerare includono, ma non si limitano a:&nbsp;<\/p>\n\n\n\n<p>&#8211; <strong>Controllo Umano:<\/strong> Assicurare che ci sia una supervisione umana adeguata sulle decisioni prese dai sistemi di IA, in modo che possano essere monitorate, valutate e, se necessario, corrette o annullate da operatori umani.&nbsp;<\/p>\n\n\n\n<p>&#8211; <strong>Organizzazione Interna<\/strong>: Implementare strutture e processi interni che promuovano la responsabilit\u00e0 etica e la conformit\u00e0 normativa nell&#8217;uso dell&#8217;IA, inclusi meccanismi di segnalazione e revisione dei sistemi.&nbsp;<\/p>\n\n\n\n<p>Questo approccio mira a promuovere l&#8217;uso responsabile e sicuro dell&#8217;IA nei servizi pubblici e in quelli privati che hanno un impatto significativo sulla vita dei cittadini, riconoscendo il ruolo cruciale che questi servizi svolgono nella societ\u00e0 e la particolare vulnerabilit\u00e0 dei loro utenti ai potenziali rischi derivanti dall&#8217;impiego dell&#8217;IA.&nbsp;<\/p>\n\n\n\n<p><strong>Trasparenza e Informazione agli Utenti<\/strong>&nbsp;<\/p>\n\n\n\n<p>\u00c8 fondamentale che gli utenti dei sistemi di IA siano pienamente consapevoli delle capacit\u00e0, dei limiti e del grado di affidabilit\u00e0 dei sistemi con cui interagiscono. Questo include la comunicazione chiara di qualsiasi interazione tra il sistema di IA e gli operatori umani, nonch\u00e9 la divulgazione delle basi logiche delle decisioni prese dal sistema.&nbsp;<\/p>\n\n\n\n<p><strong>Accuratezza e Sicurezza dei Dati<\/strong>&nbsp;<\/p>\n\n\n\n<p>I dati rappresentano il nucleo su cui si basano i sistemi di IA, pertanto \u00e8 imprescindibile che questi siano gestiti con la massima attenzione. I dati utilizzati per addestrare, testare e validare i sistemi di IA devono essere accurati, rappresentativi della realt\u00e0 che si intende modellare e protetti da accessi non autorizzati o manipolazioni, garantendo cos\u00ec la loro integrit\u00e0 e sicurezza.&nbsp;<\/p>\n\n\n\n<p><strong>Vigilanza e Controllo Umano<\/strong>&nbsp;<\/p>\n\n\n\n<p>Per i sistemi di IA ad alto rischio, \u00e8 vitale incorporare meccanismi efficaci di supervisione e controllo umano. Questo assicura che tutte le decisioni automatizzate possano essere monitorate, valutate e, se necessario, modificate o annullate da operatori umani, garantendo cos\u00ec che la tecnologia operi in modo etico e conforme ai principi di giustizia e equit\u00e0.&nbsp;<\/p>\n\n\n\n<p>L\u2019integrazione con la DPIA privacy&nbsp;<\/p>\n\n\n\n<p>Per semplificare il percorso verso la conformit\u00e0 normativa e ridurre l&#8217;onere amministrativo per le aziende, la Valutazione d&#8217;Impatto sui Diritti Fondamentali (FRIA) \u00e8 stata progettata per essere integrabile con le Valutazioni d&#8217;Impatto sulla Privacy (DPIA) che molte aziende potrebbero aver gi\u00e0 realizzato.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questa sinergia tra FRIA e DPIA rappresenta un passo avanti significativo nella regolamentazione, poich\u00e9 entrambe le valutazioni condividono l&#8217;obiettivo comune di identificare e mitigare i rischi associati all&#8217;uso di tecnologie avanzate, sia in termini di diritti fondamentali che di protezione dei dati personali.&nbsp;<\/p>\n\n\n\n<p>L&#8217;integrazione tra FRIA e DPIA permette alle aziende di:&nbsp;<\/p>\n\n\n\n<p>&#8211; <strong>Ottimizzare le Risorse<\/strong>: Evitare duplicazioni di lavoro sfruttando le analisi e le misure di mitigazione gi\u00e0 identificate nelle DPIA per affrontare questioni correlate ai diritti fondamentali.&nbsp;<\/p>\n\n\n\n<p>&#8211; <strong>Migliorare la Comprensione dei Rischi:<\/strong>&nbsp; Fornire una visione pi\u00f9 ampia e olistica dei rischi associati alle applicazioni di IA, considerando sia la protezione dei dati personali sia l&#8217;impatto sui diritti fondamentali pi\u00f9 in generale.&nbsp;<\/p>\n\n\n\n<p>&#8211; <strong>Promuovere la Conformit\u00e0 Normativa<\/strong>: Facilitare il processo di conformit\u00e0 alle normative vigenti, fornendo alle aziende strumenti e procedure chiare per valutare e documentare l&#8217;impatto delle loro tecnologie.&nbsp;<\/p>\n\n\n\n<p>Inoltre, l&#8217;AI Office europeo gioca un ruolo cruciale nell&#8217;assistere le aziende in questo processo, <strong>fornendo un template standardizzato per la FRIA.<\/strong>&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questo strumento \u00e8 progettato per aiutare le aziende a navigare attraverso i requisiti normativi, assicurando che le valutazioni siano sia complete sia conformi alle aspettative dell&#8217;AI Act. Il template funge da guida passo dopo passo, coprendo tutti gli aspetti necessari per una valutazione d&#8217;impatto efficace, e include:&nbsp;<\/p>\n\n\n\n<p>&#8211; <strong>Criteri di Valutazione<\/strong>: Indicazioni su come identificare e valutare i rischi per i diritti fondamentali.&nbsp;<\/p>\n\n\n\n<p>&#8211; <strong>Misure di Mitigazione<\/strong>: Suggerimenti su possibili strategie per ridurre i rischi identificati.&nbsp;<\/p>\n\n\n\n<p>&#8211; <strong>Documentazione e Reporting:<\/strong> Linee guida su come documentare adeguatamente le valutazioni e le misure adottate per dimostrare la conformit\u00e0.&nbsp;<\/p>\n\n\n\n<p><strong>Gestione del Rischio e Responsabilit\u00e0 dei Provider di AI ad Alto Rischio nell&#8217;AI Act<\/strong>&nbsp;<\/p>\n\n\n\n<p>I fornitori di sistemi di intelligenza artificiale (IA) devono aderire a linee guida rigorose per garantire che i loro sistemi siano conformi alle normative vigenti, eticamente responsabili e tecnicamente affidabili. Queste linee guida coprono vari aspetti del ciclo di vita dei sistemi di IA, dalla progettazione e sviluppo fino al monitoraggio post-implementazione.&nbsp;<\/p>\n\n\n\n<p>In particolare&nbsp;&nbsp;<\/p>\n\n\n\n<p>Conformit\u00e0 e Valutazioni di Conformit\u00e0 : Prima di mettere un sistema di IA sul mercato, i fornitori devono sottoporlo a valutazioni di conformit\u00e0 per assicurarsi che rispettino tutte le normative applicabili<a href=\"https:\/\/digital-strategy.ec.europa.eu\/en\/policies\/regulatory-framework-ai\" target=\"_blank\" rel=\"noreferrer noopener\">18<\/a>.&nbsp;<\/p>\n\n\n\n<p>Monitoraggio Post-Mercato : Dopo l&#8217;implementazione, i fornitori devono continuare a monitorare i sistemi di IA per identificare e correggere eventuali problemi o bias emergenti. Questo include l&#8217;aggiornamento della documentazione e delle misure di mitigazione dei rischi<a href=\"https:\/\/digital-strategy.ec.europa.eu\/en\/policies\/regulatory-framework-ai\" target=\"_blank\" rel=\"noreferrer noopener\">18<\/a>.&nbsp;<\/p>\n\n\n\n<p>Supervisione umana : \u00c8 fondamentale mantenere un livello di supervisione umana sui sistemi di IA, specialmente quelli ad alto rischio, per garantire che le decisioni critiche siano soggette a revisione umana<a href=\"https:\/\/digital-strategy.ec.europa.eu\/en\/policies\/regulatory-framework-ai\" target=\"_blank\" rel=\"noreferrer noopener\">18<\/a>.&nbsp;<\/p>\n\n\n\n<p>Collaborazione e Responsabilit\u00e0&nbsp;<\/p>\n\n\n\n<p>Collaborazione Settoriale : I fornitori di IA dovrebbero lavorare in collaborazione con regolatori, esperti del settore e parti interessate per sviluppare standard e pratiche migliori<a href=\"https:\/\/ai.google\/static\/documents\/building-a-responsible-regulatory-framework-for-ai.pdf\" target=\"_blank\" rel=\"noreferrer noopener\">7<\/a>.&nbsp;<\/p>\n\n\n\n<p>Responsabilit\u00e0 : I fornitori devono essere chiaramente responsabili per il funzionamento dei loro sistemi di IA, inclusa la responsabilit\u00e0 per qualsiasi danno causato dall&#8217;uso dei loro sistemi<a href=\"https:\/\/sdaia.gov.sa\/en\/SDAIA\/about\/Documents\/ai-principles.pdf\" target=\"_blank\" rel=\"noreferrer noopener\">8<\/a>.&nbsp;<\/p>\n\n\n\n<p>Innovazione e Supporto&nbsp;<\/p>\n\n\n\n<p>Sandbox Regolatori : Per promuovere l&#8217;innovazione, alcuni regolamenti come l&#8217;AI Act incoraggiano l&#8217;uso di ambienti di test regolatori (sandbox) che consentono ai fornitori di sperimentare e affinare i sistemi di IA in un contesto controllato prima del lancio completo&nbsp;<\/p>\n\n\n\n<p><strong>&nbsp;<\/strong><strong>Protezione dei Gruppi Vulnerabili<\/strong>&nbsp;<\/p>\n\n\n\n<p>La protezione dei minori e delle persone vulnerabili nell&#8217;ambito dell&#8217;uso dell&#8217;intelligenza artificiale (IA) \u00e8 un tema di crescente importanza, come evidenziato da diverse fonti e iniziative recenti.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Le preoccupazioni principali riguardano la sicurezza, la privacy, e l&#8217;etica nell&#8217;uso delle tecnologie di IA, specialmente in contesti che influenzano direttamente i giovani e altri gruppi vulnerabili.&nbsp;<\/p>\n\n\n\n<p>Principali Preoccupazioni e Iniziative&nbsp;<\/p>\n\n\n\n<p><strong>Privacy e Sicurezza dei Dati <\/strong>: La protezione dei dati personali \u00e8 fondamentale, soprattutto quando si tratta di minori. Il GDPR europeo pone particolare enfasi sulla protezione dei minori, considera gli utenti vulnerabili. Le aziende e le organizzazioni che utilizzano IA devono garantire che i dati dei minori siano trattati con la massima cura e sicurezza<a href=\"https:\/\/www.garanteprivacy.it\/temi\/minori\" target=\"_blank\" rel=\"noreferrer noopener\">17<\/a>.&nbsp;<\/p>\n\n\n\n<p><strong>Rischi di abuso e manipolazione<\/strong> : L&#8217;IA pu\u00f2 essere utilizzata per scopi malevoli, come il cyberbullismo o l&#8217;adescamento online. \u00c8 essenziale che i sistemi di IA siano progettati per prevenire tali abusi, identificando e intervenendo in situazioni potenzialmente pericolose<a href=\"https:\/\/www.dimt.it\/news\/lia-al-servizio-della-sicurezza-online-per-i-minori-unintervista-con-il-prof-michele-iaselli\/\" target=\"_blank\" rel=\"noreferrer noopener\">5<\/a><a href=\"https:\/\/www.repubblica.it\/tecnologia\/2024\/05\/11\/news\/lintelligenza_artificiale_e_gli_abusi_ai_minori_online-422903586\/\" target=\"_blank\" rel=\"noreferrer noopener\">12<\/a><a href=\"https:\/\/www.devita.law\/intelligenza-artificiale-contrasto-abusi-minori\/\" target=\"_blank\" rel=\"noreferrer noopener\">13<\/a>.&nbsp;<\/p>\n\n\n\n<p><strong>Impatto sulla Salute Mentale<\/strong> : L&#8217;esposizione a tecnologie basate sull&#8217;IA, come i social media ei giochi online, pu\u00f2 avere effetti negativi sulla salute mentale dei minori. \u00c8 importante educare i minori all&#8217;uso critico e consapevole delle tecnologie digitali<a href=\"https:\/\/www.ilgiorno.it\/milano\/cronaca\/minori-e-intelligenza-artificiale-rischi-e-necessita-di-educazione-digitale-d5b9fa5c\" target=\"_blank\" rel=\"noreferrer noopener\">20<\/a>.&nbsp;<\/p>\n\n\n\n<p><strong>Iniziative di Protezione <\/strong>: Organizzazioni internazionali e aziende tecnologiche stanno collaborando per migliorare la sicurezza dei minori online. Ad esempio, Meta, Google e OpenAI hanno stretto un accordo per proteggere i minori dall&#8217;uso improprio dell&#8217;IA generativa<a href=\"https:\/\/www.corriere.it\/tecnologia\/24_aprile_25\/meta-google-e-openai-accordo-per-proteggere-i-minori-dall-intelligenza-artificiale-generativa-d68f4977-2595-4378-b23c-436393b9fxlk.shtml\" target=\"_blank\" rel=\"noreferrer noopener\">19<\/a>. Inoltre, progetti come AI for Safer Children (AI4SC) delle Nazioni Unite mirano a utilizzare l&#8217;IA per combattere gli abusi sui minori su Internet&nbsp;<\/p>\n\n\n\n<p><strong>Raccomandazioni per la Protezione<\/strong>&nbsp;<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Educazione Digitale : \u00c8 cruciale educare i minori e le loro famiglie sull&#8217;uso sicuro delle tecnologie digitali e sull&#8217;IA. Questo include la comprensione dei rischi e delle opportunit\u00e0 offerte dall&#8217;IA\u00a0<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Normative e Linee Guida : Le politiche e le regolamentazioni devono essere aggiornate per riflettere le sfide poste dall&#8217;IA, garantendo che i diritti dei minori siano sempre protetti. Questo include l&#8217;implementazione di normative specifiche per l&#8217;uso dell&#8217;IA con i minori\u00a0<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Design Etico : Gli sviluppatori di IA devono adottare principi di &#8220;privacy by design&#8221; e &#8220;ethics by design&#8221; per garantire che i sistemi di IA siano sicuri e non pregiudichino i diritti dei minori\u00a0<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Collaborazione Multisettoriale : \u00c8 essenziale una collaborazione tra governi, industrie tecnologiche, organizzazioni per i diritti dei minori e il settore educativo per sviluppare soluzioni efficaci e sicure che proteggono i minori nell&#8217;era digitale<a href=\"https:\/\/www.devita.law\/intelligenza-artificiale-contrasto-abusi-minori\/\" target=\"_blank\" rel=\"noreferrer noopener\">13<\/a><a href=\"https:\/\/www.corriere.it\/tecnologia\/24_aprile_25\/meta-google-e-openai-accordo-per-proteggere-i-minori-dall-intelligenza-artificiale-generativa-d68f4977-2595-4378-b23c-436393b9fxlk.shtml\" target=\"_blank\" rel=\"noreferrer noopener\">19<\/a>.\u00a0<\/li>\n<\/ul>\n\n\n\n<p><strong>&nbsp;<\/strong><strong>Selezione e Gestione dei Dati di Training<\/strong>&nbsp;<\/p>\n\n\n\n<p>La selezione e la gestione dei dati di formazione sono passaggi cruciali nello sviluppo di sistemi di intelligenza artificiale (IA) e machine learning (ML).&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questi processi influenzano direttamente la qualit\u00e0, l&#8217;efficacia e l&#8217;equit\u00e0 dei modelli di IA. Diverse fonti evidenziano le sfide e le strategie associate alla selezione e gestione dei dati di formazione.&nbsp;<\/p>\n\n\n\n<p>Sfide nella Selezione dei Dati di Formazione&nbsp;<\/p>\n\n\n\n<p><strong>Carenza e Scarsa Qualit\u00e0 dei Dati <\/strong>: La mancanza di dati di qualit\u00e0 e la loro scarsit\u00e0 possono limitare in modo significativo l&#8217;efficacia dei modelli di IA. La dipendenza da dati digitali, come quelli raccolti da aziende come Meta e Google, pu\u00f2 introdurre bias e limitare la variet\u00e0 dei dati disponibili per l&#8217;addestramento<a href=\"https:\/\/www.andreaviliotti.it\/post\/carenza-e-scarsa-qualit%C3%A0-dei-dati-per-addestramento-dell-intelligenza-artificiale\" target=\"_blank\" rel=\"noreferrer noopener\">1<\/a>.&nbsp;<\/p>\n\n\n\n<p><strong>Bias nei Dati <\/strong>: I dati di formazione possono contenere bias impliciti che riflettono pregiudizi esistenti nella societ\u00e0. Questi bias possono essere introdotti in varie fasi, dalla raccolta alla pre-elaborazione dei dati, e possono portare a risultati distorti o ingiusti&nbsp;<\/p>\n\n\n\n<p><strong>Gestione dei Dati Mancanti<\/strong> : La presenza di dati mancanti negli esempi di formazione \u00e8 un problema comune. La gestione inadeguata di questi dati pu\u00f2 influenzare negativamente la qualit\u00e0 del modello di machine learning&nbsp;<\/p>\n\n\n\n<p>Strategie per la Selezione e Gestione dei Dati di Formazione&nbsp;<\/p>\n\n\n\n<p><strong>Valutazione e Compensazione della Qualit\u00e0 dei Dati<\/strong> : \u00c8 fondamentale valutare la qualit\u00e0 dei dati di formazione e cercare di compensare le carenze attraverso tecniche come l&#8217;arricchimento dei dati o la creazione di un mercato dei dati, dove il valore di ciascun dato utilizzato per l&#8217; l&#8217;addestramento pu\u00f2 essere valutato e compensato<a href=\"https:\/\/www.andreaviliotti.it\/post\/carenza-e-scarsa-qualit%C3%A0-dei-dati-per-addestramento-dell-intelligenza-artificiale\" target=\"_blank\" rel=\"noreferrer noopener\">1<\/a>.&nbsp;<\/p>\n\n\n\n<p><strong>Mitigazione del bias <\/strong>: per ridurre il bias nei dati di formazione, \u00e8 possibile adottare diverse strategie, come la selezione attenta dei dati per garantire la rappresentativit\u00e0 e l&#8217;equilibrio, e l&#8217;implementazione di tecniche di imputazione per gestire i dati mancanti&nbsp;<\/p>\n\n\n\n<p><strong>Utilizzo di Dati Aperti <\/strong>: L&#8217;accesso a dataset e vari pu\u00f2 migliorare la qualit\u00e0 aperti e la variet\u00e0 dei dati di formazione, consentendo lo sviluppo di modelli di IA pi\u00f9 robusti e generalizzabili<a href=\"https:\/\/data.europa.eu\/en\/publications\/datastories\/open-data-and-ai-symbiotic-relationship-progress\" target=\"_blank\" rel=\"noreferrer noopener\">17<\/a>.&nbsp;<\/p>\n\n\n\n<p>T<strong>rasparenza e Revisione Umana <\/strong>: mantenere la trasparenza nei processi di selezione e gestione dei dati e implementatori sistemi di revisione umana (&#8220;human-in-the-loop&#8221;) possono aiutare a identificare e correggere bias e errori nei dati di training&nbsp;<\/p>\n\n\n\n<p><strong>Documentazione e trasparenza<\/strong>&nbsp;<\/p>\n\n\n\n<p>L&#8217;AI Act impone ai fornitori di sistemi di intelligenza artificiale (IA) considerati ad alto rischio di mantenere una documentazione dettagliata e facilmente accessibile.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questo requisito \u00e8 fondamentale per garantire che tutte le fasi del ciclo di vita di un sistema di IA, dalla sua progettazione alla sua implementazione, siano trasparenti e tracciabili.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Per le startup e le piccole imprese, che potrebbero trovare oneroso conformarsi a tali requisiti dettagliati, l&#8217;AI Act prevede procedure semplificate, riconoscendo la necessit\u00e0 di bilanciare la sicurezza e l&#8217;accountability con l&#8217;agilit\u00e0 e l&#8217;innovazione che caratterizzano queste realt\u00e0 imprenditoriali.&nbsp;<\/p>\n\n\n\n<p>Importanza della Documentazione e dei Log&nbsp;<\/p>\n\n\n\n<p>1. <strong>Tracciabilit\u00e0<\/strong>: La registrazione accurata dei log e la manutenzione di una documentazione completa sono essenziali per tracciare l&#8217;origine di eventuali problemi o malfunzionamenti nei sistemi di IA. Questo non solo facilita la risoluzione rapida dei problemi ma contribuisce anche a una maggiore comprensione di come le decisioni vengano prese dal sistema di IA.&nbsp;<\/p>\n\n\n\n<p>2. <strong>Accountability<\/strong>: Una documentazione dettagliata assicura che i fornitori di IA possano essere ritenuti responsabili delle decisioni prese dai loro sistemi. Questo \u00e8 particolarmente importante in contesti in cui le decisioni di un sistema di IA possono avere impatti significativi sulla vita delle persone, come nel settore sanitario, nella giustizia penale o nel reclutamento.&nbsp;<\/p>\n\n\n\n<p><strong>Chiarezza delle Informazioni per i Deployer<\/strong>&nbsp;<\/p>\n\n\n\n<p>L&#8217;AI Act sottolinea anche l&#8217;importanza di fornire ai deployer, ovvero coloro che implementano e utilizzano i sistemi di IA nelle loro operazioni, informazioni chiare e comprensibili.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questo assicura che i deployer siano pienamente consapevoli delle capacit\u00e0, dei limiti e del corretto utilizzo dei sistemi di IA, promuovendo un impiego consapevole e sicuro delle tecnologie di IA. Le informazioni dovrebbero includere:&nbsp;<\/p>\n\n\n\n<p>&#8211; Guida all&#8217;Uso: Istruzioni dettagliate su come utilizzare il sistema in modo efficace e sicuro.&nbsp;<\/p>\n\n\n\n<p>&#8211; Limitazioni del Sistema: Una chiara esposizione dei limiti del sistema di IA, comprese le condizioni o i contesti in cui il suo utilizzo potrebbe non essere appropriato o sicuro.&nbsp;<\/p>\n\n\n\n<p>&#8211; Misure di Mitigazione dei Rischi: Dettagli sulle misure implementate per mitigare i rischi associati all&#8217;uso del sistema.&nbsp;<\/p>\n\n\n\n<p><strong>Le critiche<\/strong>&nbsp;<\/p>\n\n\n\n<p>L&#8217;AI Act, il regolamento europeo sull&#8217;intelligenza artificiale, ha suscitato diverse critiche riguardo alla sua classificazione e gestione dei sistemi di IA considerata ad alto rischio.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Le principali preoccupazioni riguardano la definizione e l&#8217;identificazione dei sistemi ad alto rischio, nonch\u00e9 le condizioni di esenzione che potrebbero essere applicate.&nbsp;<\/p>\n\n\n\n<p>Critica alla classificazione di rischio alto&nbsp;<\/p>\n\n\n\n<p><strong>Ambiguit\u00e0 nella definizione<\/strong> : Alcuni critici sostengono che la definizione di &#8220;alto rischio&#8221; nell&#8217;AI Act sia troppo vaga o ambigua, rendendo difficile per le aziende determinare se i loro sistemi rientrino in questa categoria&nbsp;<\/p>\n\n\n\n<p>La definizione di alto rischio \u00e8 adattata caso per caso e pu\u00f2 comprendere categorie di IA presenti anche nelle pratiche proibite, a seconda dell&#8217;uso&nbsp;<\/p>\n\n\n\n<p>Questo approccio basato sul rischio, sebbene intenda fornire una regolamentazione flessibile e proporzionata, pu\u00f2 portare a incertezze per gli sviluppatori ei fornitori di sistemi di IA, che potrebbero avere difficolt\u00e0 a determinare se i loro sistemi rientrino o meno nella categoria ad alto rischio.&nbsp;<\/p>\n\n\n\n<p>Inoltre, l&#8217;AI Act prevede l&#8217;uso di atti delegati per modificare l&#8217;elenco delle tecniche e degli approcci considerati nell&#8217;ambito dell&#8217;IA, il che potrebbe estendere ulteriormente il campo di applicazione del regolamento, includendo potenzialmente tutte le tecnologie che utilizzano modelli logici e statistici&nbsp;<\/p>\n\n\n\n<p>Questa flessibilit\u00e0 nel modificare le definizioni e le categorie di rischio potrebbe contribuire all&#8217;ambiguit\u00e0 e rendere pi\u00f9 complesso per le aziende assicurare la conformit\u00e0.&nbsp;<\/p>\n\n\n\n<p><strong>Filtro delle Condizioni di Rischio :<\/strong> L&#8217;ufficio legale del Parlamento europeo ha espresso preoccupazioni riguardo ai filtri per la classificazione ad alto rischio. Questi filtri dovrebbero determinare se un sistema di IA pu\u00f2 essere esentato dalla categoria ad alto rischio, ma ci sono dubbi sulla loro efficacia e sulla possibilit\u00e0 che possano essere applicati in modo incoerente&nbsp;<\/p>\n\n\n\n<p><strong>Impatto sulla competitivit\u00e0 e innovazione <\/strong>: Alcuni temono che le rigide regolamentazioni per i sistemi ad alto rischio possono frenare l&#8217;innovazione e mettere le aziende europee in una posizione di svantaggio rispetto ai concorrenti internazionali, in particolare quelli statunitensi e cinesi&nbsp;<\/p>\n\n\n\n<p><strong>Complessit\u00e0 del regolamento <\/strong>: La complessit\u00e0 e la portata del regolamento sono viste da alcuni come un ostacolo potenziale per le aziende, specialmente le PMI, che potrebbero avere difficolt\u00e0 a navigare tra le nuove regole e garantire la conformit\u00e02&nbsp;<\/p>\n\n\n\n<p><strong>Risposte alle critiche<\/strong>&nbsp;<\/p>\n\n\n\n<p>Nonostante le critiche, molti sostengono che l&#8217;AI Act sia un passo necessario per garantire che l&#8217;uso dell&#8217;intelligenza artificiale in Europa sia sicuro, etico e rispettoso dei diritti fondamentali.&nbsp;&nbsp;<\/p>\n\n\n\n<p>L&#8217;approccio basato sul rischio \u00e8 inteso per bilanciare la protezione dei consumatori e degli utenti di IA con la promozione dell&#8217;innovazione e dello sviluppo tecnologico&nbsp;<\/p>\n\n\n\n<p>Inoltre, il processo di definizione e revisione delle categorie di rischio \u00e8 ancora in corso, con la possibilit\u00e0 di aggiustamenti basati sul feedback degli stakeholder e sull&#8217;evoluzione del mercato e della tecnologia&nbsp;<\/p>\n\n\n\n<p>La definizione di quali applicazioni rientrino in questa categoria critica \u00e8 stata oggetto di ampie discussioni e negoziazioni tra i co-legislatori, dimostrando il delicato equilibrio tra il desiderio di stimolare l&#8217;innovazione tecnologica e l&#8217;impellente necessit\u00e0 di assicurare elevati livelli di sicurezza e la salvaguardia dei diritti fondamentali.&nbsp;<\/p>\n\n\n\n<p>Questo processo decisionale riflette la consapevolezza dell&#8217;Unione Europea riguardo alla doppia natura dell&#8217;IA: da un lato, il suo potenziale di guidare progressi significativi in numerosi settori, dall&#8217;assistenza sanitaria all&#8217;agricoltura, dall&#8217;istruzione alla produzione; dall&#8217;altro, i rischi che possono emergere in termini di privacy, sicurezza, equit\u00e0 e accountability.&nbsp;&nbsp;<\/p>\n\n\n\n<p>La determinazione delle applicazioni di IA ad alto rischio \u00e8 quindi frutto di una valutazione attenta di vari fattori, tra cui:&nbsp;<\/p>\n\n\n\n<p><strong>&#8211; L&#8217;impatto sull&#8217;individuo e sulla societ\u00e0:<\/strong> Le applicazioni che influenzano direttamente la vita delle persone o hanno il potenziale di incidere significativamente sulla societ\u00e0 nel suo insieme sono soggette a un esame pi\u00f9 rigoroso.&nbsp;<\/p>\n\n\n\n<p>&#8211;<strong> I settori di applicazione:<\/strong> Alcuni settori, come quelli legati alla sicurezza pubblica, alla gestione delle infrastrutture critiche, alla salute e all&#8217;educazione, sono considerati intrinsecamente pi\u00f9 sensibili e, pertanto, le applicazioni di IA in questi campi tendono a essere classificate come ad alto rischio.&nbsp;<\/p>\n\n\n\n<p><strong>&#8211; La possibilit\u00e0 di danno:<\/strong> Le applicazioni che possono causare danni fisici o psicologici alle persone, violare i diritti fondamentali o portare a discriminazioni indebite sono attentamente valutate e spesso classificate come ad alto rischio.&nbsp;<\/p>\n\n\n\n<p>L&#8217;approccio adottato dall&#8217;AI Act nella classificazione dei sistemi di IA mira a garantire che l&#8217;innovazione possa procedere in un contesto di sicurezza e fiducia, con regole chiare che non solo proteggano i cittadini ma anche guidino gli sviluppatori e i fornitori di IA verso la creazione di tecnologie responsabili e trasparenti.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questo equilibrio tra promozione dell&#8217;innovazione e tutela dei diritti fondamentali \u00e8 essenziale per sostenere lo sviluppo di un ecosistema di IA etico e sostenibile all&#8217;interno dell&#8217;Unione Europea, posizionando l&#8217;UE come un leader globale nella regolamentazione dell&#8217;IA che sia tanto innovativa quanto rispettosa dei valori umani e dei principi democratici.&nbsp;<\/p>\n\n\n\n<p><strong>Rischio Limitato<\/strong>&nbsp;<\/p>\n\n\n\n<p>I sistemi di IA con rischio limitato sono quelli che possono avere implicazioni sui diritti o sulla sicurezza delle persone, ma in una misura meno diretta o meno grave rispetto alle categorie precedenti.&nbsp;&nbsp;<\/p>\n\n\n\n<p>&nbsp;Ecco i principali requisiti per questa categoria:&nbsp;<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Gli utenti devono essere informati quando interagiscono con un sistema di IA, come ad esempio i chatbot, in modo da poter scegliere se continuare o meno a praticare1\u00a0<\/li>\n\n\n\n<li>I fornitori devono garantire che i contenuti generati dall&#8217;IA, come immagini, audio o video (ad es. deepfake), siano identificabili come tali per distinguerli da contenuti autentici\u00a0<\/li>\n\n\n\n<li>I contenuti generati dall&#8217;IA e pubblicati per informare il pubblico su questioni di interesse pubblico devono essere etichettati come artificialmente generati\u00a0<\/li>\n\n\n\n<li>I sistemi di IA in questa categoria devono rispettare requisiti minimi di trasparenza che consentono agli utenti di prendere decisioni informate sull&#8217;utilizzo o meno di tali sistemi\u00a0<\/li>\n<\/ul>\n\n\n\n<p>Per questi sistemi, sono richieste misure di trasparenza specifiche.&nbsp;&nbsp;&nbsp;<\/p>\n\n\n\n<p><strong>&nbsp;Rischio Minimo<\/strong>&nbsp;<\/p>\n\n\n\n<p>L&#8217;intelligenza artificiale (IA) classificata come a &#8220;rischio minimo o nullo&#8221; rappresenta la categoria di sistemi AI che, secondo la normativa europea AI Act, non presentano rischi significativi per i diritti fondamentali, la sicurezza delle persone o altri interessi pubblici.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questi sistemi possono essere utilizzati liberamente senza restrizioni normative specifiche.&nbsp;<\/p>\n\n\n\n<p>Definizione e esempi di sistemi a rischio minimo o nullo&nbsp;<\/p>\n\n\n\n<p>I sistemi di IA a rischio minimo o nullo includono applicazioni generalmente considerate sicure e di basso impatto, come i videogiochi abilitati all&#8217;IA oi filtri antispam.&nbsp;&nbsp;<\/p>\n\n\n\n<p>La maggior parte dei sistemi di IA attualmente disponibili sul mercato unico europeo rientra in questa categoria&nbsp;<\/p>\n\n\n\n<p>Regolamentazione e implicazioni&nbsp;<\/p>\n\n\n\n<p>Secondo l&#8217;AI Act, non sono imposti obblighi specifici per i sistemi di IA a rischio minimo o nullo.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Tuttavia, \u00e8 suggerito seguire i principi generali come la supervisione umana, la non discriminazione e l&#8217;equit\u00e0, anche se non sono obbligatori&nbsp;<\/p>\n\n\n\n<p>Questo approccio riflette la volont\u00e0 di bilanciare la promozione dell&#8217;innovazione e l&#8217;uso responsabile dell&#8217;IA, senza soffocare il progresso tecnologico con regolamenti eccessivi per applicazioni considerate a basso rischio.&nbsp;<\/p>\n\n\n\n<p>Impatto sul Mercato e l&#8217;Innovazione&nbsp;<\/p>\n\n\n\n<p>La classificazione di un sistema di IA come un rischio minimo o nullo facilita l&#8217;innovazione e l&#8217;esperienza, permettendo agli sviluppatori di esplorare nuove applicazioni senza la necessit\u00e0 di navigare attraverso un complesso processo di conformit\u00e0 regolamentare.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questo \u00e8 particolarmente vantaggioso per le startup e le piccole e medie imprese che potrebbero non avere le risorse per gestire requisiti regolamentari onerosi<a href=\"https:\/\/www.europarl.europa.eu\/topics\/en\/article\/20230601STO93804\/eu-ai-act-first-regulation-on-artificial-intelligence\" target=\"_blank\" rel=\"noreferrer noopener\">15<\/a>.In sintesi, i sistemi di IA a rischio minimo o nullo offrono un&#8217;ampia libert\u00e0 operativa e sono fondamentali per stimolare l&#8217;innovazione nel campo dell&#8217;intelligenza artificiale, contribuendo al contempo a mantenere un equilibrio tra progresso tecnologico e protezione dei consumatori e della societ\u00e0 .&nbsp;&nbsp;<\/p>\n\n\n\n<p>L&#8217;approccio dell&#8217;AI Act verso questi sistemi \u00e8 volto a promuovere l&#8217;innovazione e l&#8217;esplorazione tecnologica, riconoscendo che il potenziale di danno associato a queste applicazioni \u00e8 significativamente pi\u00f9 basso rispetto a sistemi di IA che operano in contesti critici o sensibili. Di conseguenza, questi sistemi sono esentati dalla maggior parte degli obblighi regolamentari imposti dalle categorie di rischio pi\u00f9 elevate.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Ci\u00f2 non significa, tuttavia, che siano completamente privi di supervisione o che le buone pratiche di sviluppo dell&#8217;IA debbano essere ignorate. Anche per i sistemi di rischio minimo o nullo, \u00e8 incoraggiata l&#8217;adozione di principi etici e di responsabilit\u00e0, come la trasparenza, la sicurezza dei dati e il rispetto della privacy.&nbsp;<\/p>\n\n\n\n<p>La filosofia alla base di questo approccio \u00e8 duplice:&nbsp;<\/p>\n\n\n\n<p>1. Favorire l&#8217;Innovazione: Consentire agli sviluppatori e alle aziende di sperimentare e innovare con la tecnologia IA senza l&#8217;onere di pesanti requisiti regolamentari. Questo stimola la crescita del settore dell&#8217;IA e mantiene l&#8217;UE competitiva nel panorama tecnologico globale.&nbsp;<\/p>\n\n\n\n<p>2. Concentrare le Risorse sui Rischi Maggiori: Indirizzando l&#8217;attenzione regolamentare e le risorse di conformit\u00e0 verso i sistemi di IA che presentano rischi significativi, l&#8217;AI Act mira a utilizzare in modo efficiente le risorse per proteggere i cittadini da potenziali danni, garantendo nel contempo che l&#8217;innovazione nei settori meno rischiosi non venga indebitamente ostacolata.&nbsp;<\/p>\n\n\n\n<p><strong>Un Quadro Armonizzato per l&#8217;Innovazione<\/strong>&nbsp;<\/p>\n\n\n\n<p>L&#8217;AI Act si propone di realizzare diversi obiettivi chiave:&nbsp;<\/p>\n\n\n\n<p>1.<strong> Favorire la fiducia nell&#8217;IA:<\/strong> Creare un ambiente in cui i cittadini e le imprese possano fidarsi delle soluzioni di IA, sapendo che sono regolate da standard rigorosi che tutelano la sicurezza e i diritti fondamentali.&nbsp;<\/p>\n\n\n\n<p>2. <strong>Promuovere l&#8217;adozione dell&#8217;IA:<\/strong> Rimuovendo incertezze regolamentari e stabilendo chiare linee guida per lo sviluppo e l&#8217;uso dell&#8217;IA, l&#8217;AI Act mira a incoraggiare le imprese a investire e innovare in questo settore.&nbsp;<\/p>\n\n\n\n<p>3. <strong>Garantire un livello uniforme di protezione:<\/strong> Applicando lo stesso quadro regolamentare in tutti gli Stati membri, l&#8217;AI Act cerca di prevenire la frammentazione del mercato interno, assicurando che tutti i cittadini europei godano dello stesso livello di protezione.&nbsp;<\/p>\n\n\n\n<p>4. <strong>Stabilire standard globali<\/strong>: Attraverso l&#8217;AI Act, l&#8217;UE intende esercitare un&#8217;influenza normativa a livello globale, promuovendo i suoi valori e principi etici nell&#8217;ambito dell&#8217;IA e incoraggiando altri paesi e regioni a adottare approcci simili.&nbsp;<\/p>\n\n\n\n<p><strong>&nbsp;Verso un Futuro Sicuro e Etico<\/strong>&nbsp;<\/p>\n\n\n\n<p>Questa legislazione pone una forte enfasi sulla sicurezza, sull&#8217;etica e sul rispetto dei valori fondamentali, stabilendo un chiaro intento di orientare lo sviluppo dell&#8217;IA verso percorsi che beneficino l&#8217;intera cittadinanza europea.&nbsp;&nbsp;<\/p>\n\n\n\n<p>L&#8217;AI Act si propone di assicurare che l&#8217;IA sia utilizzata come uno strumento per il progresso sociale ed economico, evitando che diventi una fonte di rischio o di danno. Per raggiungere questo obiettivo, il regolamento introduce una serie di misure e requisiti che mirano a:&nbsp;<\/p>\n\n\n\n<p>1. <strong>Garantire la trasparenza e la responsabilit\u00e0<\/strong>: L&#8217;AI Act richiede che i sistemi di IA siano trasparenti, spiegabili e soggetti a supervisione umana, affinch\u00e9 gli utenti possano comprendere le decisioni prese con il supporto dell&#8217;IA e, se necessario, contestarle.&nbsp;<\/p>\n\n\n\n<p>2. <strong>Promuovere l&#8217;equit\u00e0 e la non discriminazione<\/strong>: Il regolamento impone che i modelli di IA siano sviluppati e utilizzati in modo da prevenire bias ingiusti e discriminazioni, proteggendo i diritti di tutte le persone e promuovendo l&#8217;inclusivit\u00e0.&nbsp;<\/p>\n\n\n\n<p>3. <strong>Assicurare la sicurezza e la protezione dei dati:<\/strong> L&#8217;AI Act stabilisce rigorosi standard di sicurezza e protezione dei dati per i sistemi di IA, richiedendo che i fornitori adottino misure adeguate per proteggere le informazioni personali e garantire la sicurezza degli utenti.&nbsp;<\/p>\n\n\n\n<p>4.<strong> Incoraggiare l&#8217;innovazione responsabile<\/strong>: Pur imponendo regole per la gestione dei rischi, l&#8217;AI Act \u00e8 progettato per sostenere l&#8217;innovazione, offrendo un quadro chiaro e prevedibile che incoraggia lo sviluppo di nuove tecnologie di IA che siano sicure, etiche e vantaggiose per la societ\u00e0.&nbsp;<\/p>\n\n\n\n<p>Attraverso queste misure, l&#8217;AI Act mira a costruire una fondazione solida per un futuro in cui l&#8217;IA possa essere sfruttata al massimo delle sue potenzialit\u00e0, contribuendo al benessere e al progresso dell&#8217;umanit\u00e0, mentre si evitano i rischi e gli abusi che possono emergere dall&#8217;uso improprio della tecnologia.&nbsp;&nbsp;<\/p>\n\n\n\n<p><strong>Gli Obiettivi Cardine dell&#8217;AI Act Europeo<\/strong>&nbsp;<\/p>\n\n\n\n<p>L&#8217;AI Act, proposto dalla Commissione Europea, ha delineato una visione ambiziosa per la gestione e la regolamentazione dell&#8217;intelligenza artificiale (IA) all&#8217;interno dell&#8217;Unione Europea. Questo regolamento si propone di affrontare le sfide e le opportunit\u00e0 poste dall&#8217;IA attraverso quattro obiettivi principali, che mirano a plasmare il futuro digitale dell&#8217;Europa.&nbsp;<\/p>\n\n\n\n<p>Creazione di un Mercato Unico per l&#8217;IA&nbsp;<\/p>\n\n\n\n<p>Uno degli obiettivi fondamentali dell&#8217;AI Act \u00e8 la creazione di un mercato unico per l&#8217;IA, che faciliti la libera circolazione dei sistemi di IA conformi alle norme dell&#8217;UE. Questo obiettivo mira a eliminare le barriere normative e tecniche che attualmente frammentano il mercato interno, consentendo alle imprese europee di scalare pi\u00f9 rapidamente e ai consumatori di beneficiare di una maggiore scelta e sicurezza dei prodotti.&nbsp;<\/p>\n\n\n\n<p>Aumento della Fiducia nell&#8217;IA&nbsp;<\/p>\n\n\n\n<p>L&#8217;AI Act punta a rafforzare la fiducia nell&#8217;IA tra i cittadini e le imprese europee. Per raggiungere questo scopo, il regolamento stabilisce che i sistemi di IA devono essere affidabili, trasparenti e responsabili. Oltre a ci\u00f2, devono rispettare i principi etici e i diritti fondamentali, garantendo che l&#8217;IA sia utilizzata in modo che beneficia la societ\u00e0 nel suo complesso.&nbsp;<\/p>\n\n\n\n<p>Prevenzione e Mitigazione dei Rischi dell&#8217;IA&nbsp;<\/p>\n\n\n\n<p>Un elemento cruciale dell&#8217;AI Act \u00e8 la sua enfasi sulla prevenzione e mitigazione dei rischi associati all&#8217;IA. Il regolamento propone di vietare o limitare l&#8217;uso di sistemi di IA che presentano rischi inaccettabili per la sicurezza, la salute, la dignit\u00e0 o l&#8217;autonomia delle persone. Questo include la proibizione di pratiche che violano i valori democratici, assicurando che l&#8217;IA sia utilizzata in modo etico e rispettoso.&nbsp;<\/p>\n\n\n\n<p>Sostegno all&#8217;Innovazione e all&#8217;Eccellenza nell&#8217;IA&nbsp;<\/p>\n\n\n\n<p>Infine, l&#8217;AI Act si impegna a sostenere l&#8217;innovazione e l&#8217;eccellenza nell&#8217;ambito dell&#8217;IA. Attraverso incentivi, finanziamenti e orientamenti, il regolamento mira a promuovere lo sviluppo e il dispiegamento di sistemi di IA sicuri ed etici. Inoltre, l&#8217;AI Act enfatizza l&#8217;importanza della cooperazione e del coordinamento tra gli Stati membri, le istituzioni europee e le parti interessate, per assicurare che l&#8217;Europa rimanga all&#8217;avanguardia nel campo dell&#8217;IA.&nbsp;<\/p>\n\n\n\n<p><strong>Le sanzioni e la graduale entrata in vigore<\/strong>&nbsp;<\/p>\n\n\n\n<p>L&#8217;AI Act, il regolamento europeo sull&#8217;intelligenza artificiale, prevede un sistema di sanzioni dettagliato e specifiche le tempistiche per l&#8217;entrata in vigore delle varie disposizioni.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Questo regolamento mira a garantire un utilizzo sicuro e responsabile dell&#8217;IA, proteggendo i diritti dei cittadini e promuovendo l&#8217;innovazione tecnologica.&nbsp;<\/p>\n\n\n\n<p><strong>Sanzioni dell&#8217;AI Act<\/strong>&nbsp;<\/p>\n\n\n\n<p>Le sanzioni previste dall&#8217;AI Act sono strutturate in scaglioni, a seconda della gravit\u00e0 della violazione:&nbsp;<\/p>\n\n\n\n<p>Violazioni Gravi : Le violazioni gravi dell&#8217;AI Act possono comportare sanzioni significative per le aziende coinvolte.&nbsp;&nbsp;<\/p>\n\n\n\n<p>&nbsp;Le sanzioni per le violazioni pi\u00f9 gravi possono raggiungere fino a 35 milioni di euro o il 7% del fatturato annuo globale dell&#8217;impresa, a seconda di quale sia il valore pi\u00f9 alto&nbsp;<\/p>\n\n\n\n<p>&nbsp;Ecco le principali pratiche di IA vietate:&nbsp;<\/p>\n\n\n\n<p>Sistemi di IA che operano una &#8220;categorizzazione biometrica remota&#8221; delle persone in spazi accessibili al pubblico, basati su caratteristiche biometriche come il volto, le impronte digitali, la scansione dell&#8217;iride, ecc. Fanno eccezione i casi di sicurezza pubblicati debitamente autorizzati&nbsp;<\/p>\n\n\n\n<p>Sistemi di IA che utilizzano tecniche &#8220;subliminali&#8221; per distorcere il comportamento di una persona in modo che vada a controllare la sua volont\u00e0 o le sue preferenze&nbsp;<\/p>\n\n\n\n<p>Sistemi di IA che sfruttano la &#8220;vulnerabilit\u00e0&#8221; di gruppi specifici come minori o persone disabili per distorcere il loro comportamento in modo indesiderato&nbsp;<\/p>\n\n\n\n<p>Sistemi di IA per l'&#8221;attribuzione generalizzata di punteggi di affidabilit\u00e0&#8221; alle persone basate su caratteristiche come l&#8217;origine etnica, l&#8217;orientamento sessuale, le opinioni politiche, ecc. senza il loro consenso&nbsp;<\/p>\n\n\n\n<p>Sistemi di IA che utilizzano tecniche di &#8220;riconoscimento delle emozioni&#8221; o di &#8220;categorizzazione biometrica&#8221; basate su dati biometrici per valutare le caratteristiche comportamentali o cognitive delle persone, ad esempio nei contesti lavorativi&nbsp;<\/p>\n\n\n\n<p>Sistemi di &#8220;social scoring&#8221; da parte di autorit\u00e0 pubbliche che valutano l&#8217;affidabilit\u00e0 dei cittadini basandosi sul loro comportamento sociale<a href=\"https:\/\/www.consilium.europa.eu\/it\/press\/press-releases\/2023\/12\/09\/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai\/\" target=\"_blank\" rel=\"noreferrer noopener\">8<\/a>.&nbsp;<\/p>\n\n\n\n<p>Queste pratiche sono considerate inaccettabili in quanto violano i diritti fondamentali delle persone, come la privacy, la non discriminazione e la libert\u00e0 di pensiero. L&#8217;AI Act mira a vietarle per proteggere i cittadini europei.&nbsp;<\/p>\n\n\n\n<p>L&#8217;AI Act ha creato un regime di sanzioni per garantire il rispetto delle normative, con molte che variano in base alla gravit\u00e0 dell&#8217;infrazione.&nbsp;&nbsp;<\/p>\n\n\n\n<p>Per violazione meno grave, le sanzioni possono arrivare a 7,5 milioni di euro o l&#8217;1,5% del fatturato&nbsp;<\/p>\n\n\n\n<p><strong>Fornitura di informazioni false o incomplete :&nbsp;<\/strong>&nbsp;<\/p>\n\n\n\n<p>Le sanzioni per la fornitura di informazioni false o incomplet variano a seconda della gravit\u00e0 della violazione e del contesto normativo. Secondo la legge AI:&nbsp;<\/p>\n\n\n\n<p>Sanzioni Specifiche dell&#8217;AI Act : Le sanzioni per la fornitura di informazioni false, inesatte o incomplete possono raggiungere fino a 10 milioni di euro o il 2% del fatturato annuo globale, a seconda di quale sia maggiore<a href=\"https:\/\/legalfordigital.it\/intelligenza-artificiale\/artificial-intelligence-act\/\" target=\"_blank\" rel=\"noreferrer noopener\">1<\/a><a href=\"https:\/\/www.axitea.com\/it\/blog\/artificial-intelligence-act-gli-impatti-per-le-imprese-italiane\/\" target=\"_blank\" rel=\"noreferrer noopener\">5<\/a>.&nbsp;<\/p>\n\n\n\n<p>Sanzioni nel Contesto del Digital Services Act (DSA) : Nel contesto del DSA, la Commissione pu\u00f2 imporre sanzioni per informazioni inesatte, incomplete o fuorvianti in risposta a una richiesta di informazioni. Queste sanzioni possono essere significative, ma il documento specifico non fornisce un importo esatto<a href=\"https:\/\/www.altalex.com\/documents\/2024\/01\/16\/liberta-informazione-lotta-disinformazione-digital-services-act\" target=\"_blank\" rel=\"noreferrer noopener\">6<\/a>.&nbsp;<\/p>\n\n\n\n<ol class=\"wp-block-list\" start=\"3\">\n<li>Altre Non Conformit\u00e0 : Per altre tipologie di non conformit\u00e0, le sanzioni possono essere fino a 20 milioni di euro o il 4% del fatturato annuo globale\u00a0<\/li>\n<\/ol>\n\n\n\n<p>Queste sanzioni enfatizzano l&#8217;importanza del rispetto delle normative dell&#8217;AI Act per le aziende operanti nell&#8217;UE.&nbsp;<\/p>\n\n\n\n<p>Tempistiche dell&#8217;Entrata in Vigore&nbsp;<\/p>\n\n\n\n<p>L&#8217;entrata in vigore dell&#8217;AI Act segue una tempistica specifica:&nbsp;<\/p>\n\n\n\n<ol class=\"wp-block-list\" start=\"4\">\n<li>Pubblicazione e Applicazione Iniziale : Il regolamento entrer\u00e0 in vigore il 20\u00b0 giorno successivo alla sua pubblicazione nella Gazzetta ufficiale dell&#8217;Unione europea. Tuttavia, diventer\u00e0 pienamente applicabile a decorrere da 24 mesi dalla data di entrata in vigore<a href=\"https:\/\/www.lagazzettadeglientilocali.it\/ai-act-la-mappa-delle-misure-di-rilievo-in-6-punti.html\" target=\"_blank\" rel=\"noreferrer noopener\">4<\/a><a href=\"https:\/\/www.automazionenews.it\/il-punto-sullai-act-il-regolamento-sullintelligenza-artificiale-approvato-dal-parlamento-europeo\/\" target=\"_blank\" rel=\"noreferrer noopener\">14<\/a><a href=\"https:\/\/www.europarl.europa.eu\/news\/it\/press-room\/20240308IPR19015\/il-parlamento-europeo-approva-la-legge-sull-intelligenza-artificiale\" target=\"_blank\" rel=\"noreferrer noopener\">15<\/a>.\u00a0<\/li>\n<\/ol>\n\n\n\n<ol class=\"wp-block-list\" start=\"5\">\n<li>Applicazione anticipata di alcune disposizioni : alcune disposizioni, come quelle relative ai divieti e ai requisiti per i sistemi ad alto rischio, troveranno applicazione in tempi diversi, a partire da sei mesi dall&#8217;entrata in vigore per i divieti<a href=\"https:\/\/www.lagazzettadeglientilocali.it\/ai-act-la-mappa-delle-misure-di-rilievo-in-6-punti.html\" target=\"_blank\" rel=\"noreferrer noopener\">4<\/a><a href=\"https:\/\/www.diritto.it\/regolamento-ia-approvato-accordo-provvisorio-ue\/\" target=\"_blank\" rel=\"noreferrer noopener\">9<\/a><a href=\"https:\/\/www.automazionenews.it\/il-punto-sullai-act-il-regolamento-sullintelligenza-artificiale-approvato-dal-parlamento-europeo\/\" target=\"_blank\" rel=\"noreferrer noopener\">14<\/a>.\u00a0<\/li>\n<\/ol>\n\n\n\n<ol class=\"wp-block-list\" start=\"6\">\n<li>Fasi di implementazione : Le norme sui sistemi di IA per finalit\u00e0 generali, compresa la governance, saranno operative 12 mesi dopo l&#8217;entrata in vigore. Gli obblighi per i sistemi ad alto rischio diventeranno applicabili dopo 36 mesi<a href=\"https:\/\/www.dirittobancario.it\/art\/ai-act-il-regolamento-sullintelligenza-artificiale-adottato-dal-parlamento-ue\/\" target=\"_blank\" rel=\"noreferrer noopener\">13<\/a><a href=\"https:\/\/www.automazionenews.it\/il-punto-sullai-act-il-regolamento-sullintelligenza-artificiale-approvato-dal-parlamento-europeo\/\" target=\"_blank\" rel=\"noreferrer noopener\">14<\/a>.\u00a0<\/li>\n<\/ol>\n\n\n\n<p>Queste tempistiche sono progettate per dare alle aziende il tempo necessario per adeguarsi alle nuove regole e implementare le misure richieste, garantendo al contemporaneo una transizione graduale verso un quadro normativo completo per l&#8217;intelligenza artificiale.&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Introduzione L&#8217;approvazione dell&#8217;AI Act il 13 marzo 2024 dal Parlamento Europeo non \u00e8 solo un traguardo legislativo di rilievo, ma segna anche un momento cruciale nella storia della regolamentazione tecnologica a livello globale.&nbsp;&nbsp;&nbsp; L&#8217;AI Act rappresenta un tentativo ambizioso di fornire un quadro normativo armonizzato per lo sviluppo e l&#8217;impiego dell&#8217;intelligenza artificiale (IA) all&#8217;interno dell&#8217;Unione [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[44,1],"tags":[648,656,652,657,655,649,653,650,654,651],"class_list":["post-6857","post","type-post","status-publish","format-standard","hentry","category-diritto-rovescio","category-non-categorizzato","tag-ai-act-europeo","tag-ecosistema-digitale-sicuro-ia","tag-innovazione-tecnologica-ia","tag-modello-ia-finalita-generali","tag-privacy-ia-legislazione-ue","tag-regolamentazione-intelligenza-artificiale-eu","tag-rischi-ia-alto-rischio","tag-sicurezza-e-etica-ia","tag-startup-e-ia-regolamentazione","tag-trasparenza-e-protezione-dati-ia"],"yoast_head":"<!-- This site is optimized with the Yoast SEO Premium plugin v23.3 (Yoast SEO v25.6) - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>AI Act Europeo: Rivoluzione Normativa per l&#039;Intelligenza Artificiale - Guida Completa alle Novit\u00e0 e Impatti - PB Consulting<\/title>\n<meta name=\"description\" content=\"&quot;Esplora l&#039;AI Act Europeo: un quadro normativo per un&#039;IA sicura, etica e innovativa nell&#039;UE, garantendo trasparenza e protezione dei dati.&quot;\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-europeo-rivoluzione-normativa-per-lintelligenza-artificiale-guida-completa-alle-novita-e-impatti\/\" \/>\n<meta property=\"og:locale\" content=\"en_US\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"AI Act Europeo: Rivoluzione Normativa per l&#039;Intelligenza Artificiale - Guida Completa alle Novit\u00e0 e Impatti\" \/>\n<meta property=\"og:description\" content=\"&quot;Esplora l&#039;AI Act Europeo: un quadro normativo per un&#039;IA sicura, etica e innovativa nell&#039;UE, garantendo trasparenza e protezione dei dati.&quot;\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-europeo-rivoluzione-normativa-per-lintelligenza-artificiale-guida-completa-alle-novita-e-impatti\/\" \/>\n<meta property=\"og:site_name\" content=\"PB Consulting\" \/>\n<meta property=\"article:author\" content=\"https:\/\/www.facebook.com\/alberto.bozzo.9\" \/>\n<meta property=\"article:published_time\" content=\"2024-05-12T08:06:21+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-05-12T08:35:37+00:00\" \/>\n<meta name=\"author\" content=\"Alberto Bozzo\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Alberto Bozzo\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"77 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-europeo-rivoluzione-normativa-per-lintelligenza-artificiale-guida-completa-alle-novita-e-impatti\/\",\"url\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-europeo-rivoluzione-normativa-per-lintelligenza-artificiale-guida-completa-alle-novita-e-impatti\/\",\"name\":\"AI Act Europeo: Rivoluzione Normativa per l'Intelligenza Artificiale - Guida Completa alle Novit\u00e0 e Impatti - PB Consulting\",\"isPartOf\":{\"@id\":\"https:\/\/www.consultingpb.com\/#website\"},\"datePublished\":\"2024-05-12T08:06:21+00:00\",\"dateModified\":\"2024-05-12T08:35:37+00:00\",\"author\":{\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50\"},\"description\":\"\\\"Esplora l'AI Act Europeo: un quadro normativo per un'IA sicura, etica e innovativa nell'UE, garantendo trasparenza e protezione dei dati.\\\"\",\"breadcrumb\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-europeo-rivoluzione-normativa-per-lintelligenza-artificiale-guida-completa-alle-novita-e-impatti\/#breadcrumb\"},\"inLanguage\":\"en-US\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-europeo-rivoluzione-normativa-per-lintelligenza-artificiale-guida-completa-alle-novita-e-impatti\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-europeo-rivoluzione-normativa-per-lintelligenza-artificiale-guida-completa-alle-novita-e-impatti\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/www.consultingpb.com\/en\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"AI Act Europeo: Rivoluzione Normativa per l&#8217;Intelligenza Artificiale &#8211; Guida Completa alle Novit\u00e0 e Impatti\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/www.consultingpb.com\/#website\",\"url\":\"https:\/\/www.consultingpb.com\/\",\"name\":\"PB Consulting\",\"description\":\"\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/www.consultingpb.com\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"en-US\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50\",\"name\":\"Alberto Bozzo\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g\",\"caption\":\"Alberto Bozzo\"},\"sameAs\":[\"https:\/\/www.consultingpb.com\/\",\"https:\/\/www.facebook.com\/alberto.bozzo.9\",\"https:\/\/www.instagram.com\/ab_dirittorovescio\/\",\"https:\/\/www.linkedin.com\/in\/alberto-bozzo-57982b63\/\"],\"url\":\"https:\/\/www.consultingpb.com\/en\/blog\/author\/alberto\/\"}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"AI Act Europeo: Rivoluzione Normativa per l'Intelligenza Artificiale - Guida Completa alle Novit\u00e0 e Impatti - PB Consulting","description":"\"Esplora l'AI Act Europeo: un quadro normativo per un'IA sicura, etica e innovativa nell'UE, garantendo trasparenza e protezione dei dati.\"","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-europeo-rivoluzione-normativa-per-lintelligenza-artificiale-guida-completa-alle-novita-e-impatti\/","og_locale":"en_US","og_type":"article","og_title":"AI Act Europeo: Rivoluzione Normativa per l'Intelligenza Artificiale - Guida Completa alle Novit\u00e0 e Impatti","og_description":"\"Esplora l'AI Act Europeo: un quadro normativo per un'IA sicura, etica e innovativa nell'UE, garantendo trasparenza e protezione dei dati.\"","og_url":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-europeo-rivoluzione-normativa-per-lintelligenza-artificiale-guida-completa-alle-novita-e-impatti\/","og_site_name":"PB Consulting","article_author":"https:\/\/www.facebook.com\/alberto.bozzo.9","article_published_time":"2024-05-12T08:06:21+00:00","article_modified_time":"2024-05-12T08:35:37+00:00","author":"Alberto Bozzo","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Alberto Bozzo","Est. reading time":"77 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-europeo-rivoluzione-normativa-per-lintelligenza-artificiale-guida-completa-alle-novita-e-impatti\/","url":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-europeo-rivoluzione-normativa-per-lintelligenza-artificiale-guida-completa-alle-novita-e-impatti\/","name":"AI Act Europeo: Rivoluzione Normativa per l'Intelligenza Artificiale - Guida Completa alle Novit\u00e0 e Impatti - PB Consulting","isPartOf":{"@id":"https:\/\/www.consultingpb.com\/#website"},"datePublished":"2024-05-12T08:06:21+00:00","dateModified":"2024-05-12T08:35:37+00:00","author":{"@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50"},"description":"\"Esplora l'AI Act Europeo: un quadro normativo per un'IA sicura, etica e innovativa nell'UE, garantendo trasparenza e protezione dei dati.\"","breadcrumb":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-europeo-rivoluzione-normativa-per-lintelligenza-artificiale-guida-completa-alle-novita-e-impatti\/#breadcrumb"},"inLanguage":"en-US","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-europeo-rivoluzione-normativa-per-lintelligenza-artificiale-guida-completa-alle-novita-e-impatti\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-europeo-rivoluzione-normativa-per-lintelligenza-artificiale-guida-completa-alle-novita-e-impatti\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/www.consultingpb.com\/en\/"},{"@type":"ListItem","position":2,"name":"AI Act Europeo: Rivoluzione Normativa per l&#8217;Intelligenza Artificiale &#8211; Guida Completa alle Novit\u00e0 e Impatti"}]},{"@type":"WebSite","@id":"https:\/\/www.consultingpb.com\/#website","url":"https:\/\/www.consultingpb.com\/","name":"PB Consulting","description":"","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.consultingpb.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"en-US"},{"@type":"Person","@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50","name":"Alberto Bozzo","image":{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g","caption":"Alberto Bozzo"},"sameAs":["https:\/\/www.consultingpb.com\/","https:\/\/www.facebook.com\/alberto.bozzo.9","https:\/\/www.instagram.com\/ab_dirittorovescio\/","https:\/\/www.linkedin.com\/in\/alberto-bozzo-57982b63\/"],"url":"https:\/\/www.consultingpb.com\/en\/blog\/author\/alberto\/"}]}},"_links":{"self":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/6857","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/comments?post=6857"}],"version-history":[{"count":2,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/6857\/revisions"}],"predecessor-version":[{"id":6862,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/6857\/revisions\/6862"}],"wp:attachment":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/media?parent=6857"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/categories?post=6857"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/tags?post=6857"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}