{"id":7074,"date":"2024-08-03T09:25:45","date_gmt":"2024-08-03T09:25:45","guid":{"rendered":"https:\/\/www.consultingpb.com\/?p=7074"},"modified":"2024-08-03T09:26:00","modified_gmt":"2024-08-03T09:26:00","slug":"primo-agosto-ai-act-mio-non-ti-conosco","status":"publish","type":"post","link":"https:\/\/www.consultingpb.com\/en\/blog\/non-categorizzato\/primo-agosto-ai-act-mio-non-ti-conosco\/","title":{"rendered":"Primo agosto: Ai act mio non ti conosco"},"content":{"rendered":"\n<ol class=\"wp-block-list\">\n<li><strong>Introduzione: L&#8217;entrata in vigore dell&#8217;AI Act<\/strong><\/li>\n<\/ol>\n\n\n\n<p>Il 1\u00b0 agosto 2024 segna una pietra miliare nella storia della regolamentazione tecnologica: l&#8217;entrata in vigore dell&#8217;Artificial Intelligence Act dell&#8217;Unione Europea. Questo regolamento, noto come AI Act, rappresenta il primo quadro normativo completo al mondo per l&#8217;intelligenza artificiale, stabilendo un precedente globale per la gestione di questa tecnologia in rapida evoluzione. Pubblicato sulla Gazzetta Ufficiale dell&#8217;UE il 12 luglio 2024, l&#8217;AI Act (Regolamento UE 2024\/1689) \u00e8 il risultato di anni di dibattiti, negoziazioni e compromessi tra le diverse parti interessate all&#8217;interno dell&#8217;Unione Europea.<\/p>\n\n\n\n<p>L&#8217;obiettivo principale dell&#8217;AI Act \u00e8 quello di promuovere lo sviluppo e la diffusione responsabili dell&#8217;intelligenza artificiale in tutta l&#8217;UE, bilanciando l&#8217;innovazione tecnologica con la protezione dei diritti fondamentali dei cittadini europei. Come ha sottolineato Margrethe Vestager, vicepresidente esecutiva per Un&#8217;Europa pronta per l&#8217;era digitale: &#8220;L&#8217;approccio europeo alla tecnologia pone al primo posto le persone e garantisce che i diritti di tutti siano preservati&#8221;.<\/p>\n\n\n\n<p>L&#8217;ambito di applicazione del regolamento \u00e8 notevolmente ampio, coinvolgendo non solo le organizzazioni che sviluppano o utilizzano sistemi di IA all&#8217;interno dell&#8217;UE, ma anche quelle che operano al di fuori dell&#8217;Unione i cui output di IA sono utilizzati nel territorio europeo. Questa portata extraterritoriale sottolinea l&#8217;ambizione dell&#8217;UE di stabilire standard globali per l&#8217;IA, influenzando potenzialmente le pratiche di sviluppo e implementazione dell&#8217;IA ben oltre i confini europei.<\/p>\n\n\n\n<p>L&#8217;AI Act introduce un approccio innovativo basato sul rischio, classificando i sistemi di IA in diverse categorie a seconda del loro potenziale impatto sui diritti e sulla sicurezza dei cittadini. Questo approccio mira a garantire che le misure regolamentari siano proporzionate ai rischi potenziali, evitando di soffocare l&#8217;innovazione nei settori a basso rischio mentre si impongono controlli pi\u00f9 rigorosi dove necessario.<\/p>\n\n\n\n<p>Sebbene l&#8217;entrata in vigore dell&#8217;AI Act sia immediata, la sua piena applicazione seguir\u00e0 un percorso graduale nei prossimi anni, dando alle aziende e alle autorit\u00e0 il tempo di adattarsi e prepararsi alle nuove normative. Questo periodo di transizione sar\u00e0 cruciale per lo sviluppo di infrastrutture di conformit\u00e0, la formazione di personale specializzato e l&#8217;adeguamento dei modelli di business esistenti.\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b<\/p>\n\n\n\n<ol start=\"2\" class=\"wp-block-list\">\n<li><strong>Cronologia dell&#8217;implementazione<\/strong><\/li>\n<\/ol>\n\n\n\n<p>L&#8217;AI Act segue un percorso di implementazione graduale, riconoscendo la complessit\u00e0 delle sfide poste dalla regolamentazione dell&#8217;intelligenza artificiale e la necessit\u00e0 di dare alle parti interessate il tempo di adattarsi. Questa tempistica scaglionata \u00e8 progettata per bilanciare l&#8217;urgenza di affrontare i rischi immediati con la necessit\u00e0 di una transizione fluida per le imprese e le autorit\u00e0 di regolamentazione.<\/p>\n\n\n\n<p>Il processo di implementazione inizia il 1\u00b0 agosto 2024, con l&#8217;entrata in vigore formale del regolamento. Tuttavia, la maggior parte delle disposizioni non sar\u00e0 immediatamente applicabile. La prima scadenza significativa arriva il 2 febbraio 2025, sei mesi dopo l&#8217;entrata in vigore. A questa data, entreranno in vigore i divieti sulle pratiche di IA considerate a &#8220;rischio inaccettabile&#8221;. Queste includono sistemi di punteggio sociale, lo scraping non mirato di immagini facciali e l&#8217;uso di tecnologie di riconoscimento delle emozioni nei luoghi di lavoro e negli ambienti educativi. Inoltre, da questa data si applicheranno anche i requisiti per le organizzazioni per promuovere l&#8217;alfabetizzazione AI.<\/p>\n\n\n\n<p>Il passo successivo \u00e8 previsto per il 2 agosto 2025, quando entreranno in vigore le disposizioni generali sull&#8217;IA, comprendendo gli obblighi di informazione per i fornitori di strumenti come i chatbot basati su modelli linguistici di grandi dimensioni. A questa stessa data, gli Stati membri dovranno aver designato le loro Autorit\u00e0 nazionali competenti per il monitoraggio dell&#8217;applicazione del regolamento.<\/p>\n\n\n\n<p>Un anno dopo, il 2 agosto 2026, segna una tappa fondamentale con l&#8217;applicazione della maggior parte delle disposizioni del regolamento, in particolare gli obblighi per i sistemi di IA ad alto rischio in settori critici come la valutazione del rischio di credito, la sottoscrizione di assicurazioni sulla vita e sulla salute, e il riconoscimento delle emozioni al di fuori del contesto lavorativo o educativo.<\/p>\n\n\n\n<p>Infine, il 2 agosto 2027 vedr\u00e0 l&#8217;applicazione degli obblighi per i sistemi di IA ad alto rischio inclusi nell&#8217;ambito di applicazione di altre normative UE sulla sicurezza dei prodotti, come i dispositivi medici, i macchinari e le apparecchiature radio.<\/p>\n\n\n\n<p>Durante questo periodo di transizione, la Commissione europea ha lanciato il &#8220;patto per l&#8217;IA&#8221;, invitando gli sviluppatori ad adottare volontariamente gli obblighi fondamentali della legge prima delle scadenze legali. Questa iniziativa mira a promuovere una cultura di conformit\u00e0 e responsabilit\u00e0 nel settore dell&#8217;IA, facilitando una transizione pi\u00f9 fluida verso il nuovo regime normativo.\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b<\/p>\n\n\n\n<ol start=\"3\" class=\"wp-block-list\">\n<li><strong>Approccio basato sul rischio: Le quattro categorie<\/strong><\/li>\n<\/ol>\n\n\n\n<p>L&#8217;AI Act introduce un innovativo approccio basato sul rischio, classificando i sistemi di intelligenza artificiale in quattro categorie principali. Questa stratificazione \u00e8 fondamentale per l&#8217;applicazione proporzionata del regolamento, garantendo che le misure di controllo siano commisurate ai potenziali rischi per i diritti fondamentali, la salute e la sicurezza dei cittadini europei.<\/p>\n\n\n\n<p>La prima categoria, il rischio minimo, comprende la maggior parte dei sistemi di IA attualmente in uso. Questi sistemi non sono soggetti a obblighi specifici ai sensi dell&#8217;AI Act, data la loro natura relativamente innocua. Esempi includono i filtri antispam o i sistemi di assistenza AI nei videogiochi. Per queste applicazioni, le imprese sono incoraggiate ad adottare volontariamente codici di condotta aggiuntivi, promuovendo cos\u00ec una cultura di responsabilit\u00e0 anche in assenza di requisiti legali vincolanti.<\/p>\n\n\n\n<p>La seconda categoria riguarda i sistemi a rischio specifico per la trasparenza. Questi sistemi, pur non rappresentando una minaccia diretta ai diritti fondamentali, richiedono misure di trasparenza per garantire che gli utenti siano consapevoli di interagire con l&#8217;IA. Questa categoria include chatbot, deep fake e sistemi di categorizzazione biometrica. L&#8217;obiettivo principale \u00e8 assicurare che gli utenti siano informati quando interagiscono con o sono soggetti a questi sistemi di IA, permettendo loro di prendere decisioni informate.<\/p>\n\n\n\n<p>La terza e pi\u00f9 complessa categoria \u00e8 quella dei sistemi ad alto rischio. Questi includono applicazioni in settori critici come l&#8217;istruzione, l&#8217;occupazione, i servizi essenziali e la sicurezza pubblica. Per questi sistemi, l&#8217;AI Act impone requisiti rigorosi, tra cui sistemi robusti di gestione del rischio, alta qualit\u00e0 dei set di dati, documentazione dettagliata, trasparenza verso gli utenti, sorveglianza umana e elevati standard di robustezza, accuratezza e cybersicurezza. L&#8217;obiettivo \u00e8 garantire che questi sistemi siano sicuri, affidabili e rispettosi dei diritti fondamentali.<\/p>\n\n\n\n<p>Infine, la quarta categoria comprende i sistemi a rischio inaccettabile, che sono esplicitamente vietati dall&#8217;AI Act. Questi includono sistemi che manipolano il comportamento umano in modo subdolo, tecnologie di punteggio sociale, e alcune forme di sorveglianza biometrica di massa. Il divieto di questi sistemi riflette la posizione dell&#8217;UE secondo cui certi usi dell&#8217;IA sono fondamentalmente incompatibili con i valori e i diritti fondamentali europei.<\/p>\n\n\n\n<p>Questo approccio stratificato basato sul rischio permette una regolamentazione flessibile e adattabile, capace di evolversi con lo sviluppo tecnologico. Allo stesso tempo, fornisce chiarezza alle imprese e agli sviluppatori su quali standard devono rispettare, a seconda della natura e dell&#8217;applicazione dei loro sistemi di IA.\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b<\/p>\n\n\n\n<ol start=\"4\" class=\"wp-block-list\">\n<li><strong>Obblighi e divieti chiave<\/strong><\/li>\n<\/ol>\n\n\n\n<p>L&#8217;AI Act stabilisce una serie di obblighi e divieti fondamentali che mirano a garantire lo sviluppo e l&#8217;utilizzo responsabile dell&#8217;intelligenza artificiale nell&#8217;Unione Europea. Questi requisiti variano in base alla categoria di rischio del sistema di IA, con le misure pi\u00f9 stringenti applicate ai sistemi ad alto rischio e quelli considerati a rischio inaccettabile.<\/p>\n\n\n\n<p>Per i sistemi ad alto rischio, il regolamento impone una serie di obblighi rigorosi. Questi includono l&#8217;implementazione di solidi sistemi di gestione del rischio, che devono essere in grado di identificare, valutare e mitigare i potenziali rischi associati all&#8217;uso del sistema di IA. I fornitori di questi sistemi devono inoltre garantire un&#8217;elevata qualit\u00e0 dei set di dati utilizzati per l&#8217;addestramento, la convalida e il test dei modelli di IA, al fine di prevenire bias e discriminazioni. \u00c8 richiesta una documentazione tecnica dettagliata che descriva il funzionamento del sistema e le misure di sicurezza implementate.<\/p>\n\n\n\n<p>Un altro obbligo cruciale per i sistemi ad alto rischio \u00e8 la garanzia di trasparenza e la fornitura di informazioni chiare agli utenti. Ci\u00f2 include la divulgazione delle capacit\u00e0 e dei limiti del sistema, nonch\u00e9 delle situazioni in cui potrebbe fallire o produrre risultati inaccurati. Inoltre, questi sistemi devono essere progettati per consentire una supervisione umana efficace, permettendo alle persone di monitorare il funzionamento del sistema e di intervenire quando necessario.<\/p>\n\n\n\n<p>Per quanto riguarda i divieti, l&#8217;AI Act proibisce esplicitamente diverse pratiche considerate a rischio inaccettabile. Tra queste, il divieto di sistemi di &#8220;social scoring&#8221; che valutano o classificano le persone sulla base del loro comportamento sociale o di caratteristiche personali. \u00c8 inoltre vietato l&#8217;uso di tecniche subliminali o manipolative che possano causare danni fisici o psicologici, cos\u00ec come lo sfruttamento delle vulnerabilit\u00e0 di specifici gruppi di persone.<\/p>\n\n\n\n<p>Un altro divieto significativo riguarda l&#8217;uso di sistemi di identificazione biometrica remota &#8220;in tempo reale&#8221; in spazi pubblici per scopi di law enforcement, con limitate eccezioni soggette a rigorose condizioni e autorizzazioni. Questo divieto riflette le preoccupazioni per la privacy e le libert\u00e0 civili associate all&#8217;uso diffuso di tali tecnologie.<\/p>\n\n\n\n<p>Il regolamento vieta anche l&#8217;uso di sistemi di IA per inferire le emozioni sul posto di lavoro e negli istituti di istruzione, con eccezioni per motivi medici o di sicurezza. Questa disposizione mira a proteggere la privacy emotiva degli individui in contesti sensibili.<\/p>\n\n\n\n<p>Per i sistemi di IA a rischio specifico per la trasparenza, come i chatbot o i generatori di deepfake, l&#8217;obbligo principale \u00e8 quello di informare chiaramente gli utenti che stanno interagendo con un sistema di IA o che il contenuto \u00e8 stato generato artificialmente. Questo requisito di trasparenza \u00e8 fondamentale per consentire agli utenti di prendere decisioni informate e per prevenire la diffusione di disinformazione.\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b<\/p>\n\n\n\n<ol start=\"5\" class=\"wp-block-list\">\n<li><strong>Sanzioni e meccanismi di applicazione<\/strong><\/li>\n<\/ol>\n\n\n\n<p>L&#8217;AI Act introduce un robusto sistema di sanzioni e meccanismi di applicazione per garantire il rispetto delle sue disposizioni. Questo approccio riflette la seriet\u00e0 con cui l&#8217;Unione Europea considera la regolamentazione dell&#8217;intelligenza artificiale e la sua determinazione a far rispettare le nuove norme.<\/p>\n\n\n\n<p>Le sanzioni previste dall&#8217;AI Act sono significative e proporzionate alla gravit\u00e0 delle violazioni. Per le infrazioni pi\u00f9 gravi, come la violazione dei divieti sui sistemi di IA a rischio inaccettabile, le sanzioni possono arrivare fino a 35 milioni di euro o al 7% del fatturato mondiale totale annuo dell&#8217;azienda, a seconda di quale sia l&#8217;importo pi\u00f9 elevato. Questa cifra supera persino le sanzioni previste dal GDPR, sottolineando l&#8217;importanza che l&#8217;UE attribuisce alla conformit\u00e0 con l&#8217;AI Act.<\/p>\n\n\n\n<p>Per violazioni meno gravi, come il mancato rispetto di altri obblighi previsti dal regolamento, le sanzioni possono raggiungere i 15 milioni di euro o il 3% del fatturato annuo globale. Inoltre, per la fornitura di informazioni inesatte, incomplete o fuorvianti alle autorit\u00e0 competenti, sono previste sanzioni fino a 7,5 milioni di euro o l&#8217;1% del fatturato annuo globale.<\/p>\n\n\n\n<p>Oltre alle sanzioni pecuniarie, l&#8217;AI Act prevede anche la possibilit\u00e0 per le autorit\u00e0 di richiedere la conformit\u00e0 dei sistemi di IA o il loro ritiro dal mercato. Questo aspetto \u00e8 particolarmente importante in quanto fornisce un meccanismo diretto per proteggere i cittadini da sistemi di IA potenzialmente dannosi o non conformi.<\/p>\n\n\n\n<p>Per quanto riguarda i meccanismi di applicazione, l&#8217;AI Act prevede la creazione di un sistema di governance multilivello. A livello nazionale, ogni Stato membro dell&#8217;UE \u00e8 tenuto a designare un&#8217;autorit\u00e0 nazionale competente entro agosto 2025. Queste autorit\u00e0 saranno responsabili del monitoraggio e dell&#8217;applicazione del regolamento nei rispettivi paesi.<\/p>\n\n\n\n<p>A livello europeo, la Commissione europea istituir\u00e0 un nuovo ufficio per l&#8217;intelligenza artificiale, che avr\u00e0 il compito di supervisionare l&#8217;applicazione uniforme del regolamento in tutta l&#8217;UE. Questo ufficio, che sar\u00e0 composto da circa 140 dipendenti, giocher\u00e0 un ruolo cruciale nel coordinamento tra le autorit\u00e0 nazionali e nell&#8217;interpretazione delle disposizioni dell&#8217;AI Act.<\/p>\n\n\n\n<p>Il regolamento prevede anche un sistema di monitoraggio del mercato post-commercializzazione, che richiede ai fornitori di sistemi di IA ad alto rischio di implementare un sistema per raccogliere, documentare e analizzare i dati relativi alle prestazioni dei loro sistemi. Questo meccanismo mira a garantire la sicurezza e la conformit\u00e0 continua dei sistemi di IA anche dopo la loro immissione sul mercato.<\/p>\n\n\n\n<p>Infine, l&#8217;AI Act introduce un meccanismo di certificazione per i sistemi di IA ad alto rischio, che permette alle aziende di dimostrare la conformit\u00e0 dei loro prodotti attraverso una valutazione di terze parti. Questo non solo facilita la conformit\u00e0, ma pu\u00f2 anche fungere da vantaggio competitivo per le aziende che dimostrano un impegno proattivo verso un&#8217;IA responsabile ed etica.\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b<\/p>\n\n\n\n<ol start=\"6\" class=\"wp-block-list\">\n<li><strong>Impatto sulle aziende e l&#8217;innovazione<\/strong><\/li>\n<\/ol>\n\n\n\n<p>L&#8217;AI Act avr\u00e0 un impatto significativo sulle aziende che operano nel settore dell&#8217;intelligenza artificiale, sia all&#8217;interno dell&#8217;UE che a livello globale. Questo impatto si estender\u00e0 attraverso diversi settori e dimensioni aziendali, dall&#8217;industria tech alle PMI, dalle startup alle multinazionali.<\/p>\n\n\n\n<p>Per le grandi aziende tecnologiche come Microsoft, Google, Amazon, Apple e Meta, l&#8217;AI Act comporter\u00e0 la necessit\u00e0 di rivedere e potenzialmente ristrutturare molti dei loro prodotti e servizi basati sull&#8217;IA. Queste aziende dovranno garantire che i loro sistemi di IA, specialmente quelli classificati come ad alto rischio, siano conformi ai rigorosi standard di trasparenza, sicurezza e responsabilit\u00e0 stabiliti dal regolamento. Ci\u00f2 potrebbe comportare significativi investimenti in ricerca e sviluppo, nonch\u00e9 in risorse umane specializzate nella conformit\u00e0 normativa.<\/p>\n\n\n\n<p>Le aziende che operano in settori considerati ad alto rischio, come le risorse umane, la sanit\u00e0, i servizi finanziari e l&#8217;istruzione, saranno particolarmente colpite. Ad esempio, le aziende che utilizzano l&#8217;IA per il reclutamento o la valutazione dei dipendenti dovranno garantire che i loro sistemi siano equi, trasparenti e non discriminatori. Allo stesso modo, le aziende che sviluppano sistemi di IA per la diagnostica medica o la valutazione del rischio di credito dovranno implementare robusti meccanismi di supervisione umana e garantire la spiegabilit\u00e0 dei loro algoritmi.<\/p>\n\n\n\n<p>Per le PMI e le startup, l&#8217;AI Act presenta sia sfide che opportunit\u00e0. Da un lato, i costi di conformit\u00e0 potrebbero rappresentare un onere significativo per le aziende pi\u00f9 piccole. D&#8217;altra parte, il regolamento potrebbe creare nuove opportunit\u00e0 di mercato, ad esempio nel campo dell&#8217;IA etica e responsabile o nei servizi di consulenza per la conformit\u00e0 all&#8217;AI Act.<\/p>\n\n\n\n<p>L&#8217;impatto sull&#8217;innovazione \u00e8 oggetto di dibattito. Alcuni temono che le rigide normative possano soffocare l&#8217;innovazione e mettere le aziende europee in svantaggio competitivo rispetto ai concorrenti globali. Ad esempio, pi\u00f9 di 150 dirigenti di grandi aziende europee hanno espresso preoccupazioni sulle potenziali &#8220;implicazioni catastrofiche per la competitivit\u00e0 europea&#8221;. Tuttavia, i sostenitori dell&#8217;AI Act argumentano che la regolamentazione pu\u00f2 in realt\u00e0 stimolare l&#8217;innovazione responsabile, creando un ambiente di maggiore fiducia per lo sviluppo e l&#8217;adozione dell&#8217;IA.<\/p>\n\n\n\n<p>Il regolamento potrebbe anche portare a cambiamenti significativi nelle pratiche di sviluppo dell&#8217;IA. Ad esempio, le aziende potrebbero dover rivedere i loro set di dati di training, implementare una supervisione umana pi\u00f9 robusta e fornire documentazione dettagliata alle autorit\u00e0 dell&#8217;UE. Questo potrebbe rappresentare una sfida particolare per le aziende che hanno tradizionalmente mantenuto i loro modelli di IA come segreti commerciali altamente protetti.<\/p>\n\n\n\n<p>Infine, l&#8217;AI Act potrebbe influenzare le strategie di mercato delle aziende. Alcune aziende potrebbero scegliere di limitare la disponibilit\u00e0 di certi prodotti o servizi nell&#8217;UE per evitare gli oneri normativi, come ha fatto Meta con il suo modello AI LLaMa 400B. Altre potrebbero vedere l&#8217;opportunit\u00e0 di differenziarsi come leader nell&#8217;IA etica e responsabile, usando la conformit\u00e0 all&#8217;AI Act come un vantaggio competitivo.\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b<\/p>\n\n\n\n<ol start=\"7\" class=\"wp-block-list\">\n<li><strong>Preparazione delle autorit\u00e0 e delle imprese<\/strong><\/li>\n<\/ol>\n\n\n\n<p>L&#8217;implementazione dell&#8217;AI Act richiede una preparazione significativa sia da parte delle autorit\u00e0 che delle imprese. Questo processo di adattamento \u00e8 fondamentale per garantire una transizione fluida verso il nuovo quadro normativo e per massimizzare l&#8217;efficacia del regolamento.<\/p>\n\n\n\n<p>Dal lato delle autorit\u00e0, la Commissione europea sta guidando gli sforzi di preparazione. Ha gi\u00e0 avviato la creazione di un nuovo ufficio per l&#8217;intelligenza artificiale, che sar\u00e0 composto da circa 140 dipendenti. Questo ufficio, guidato da Lucilla Sioli, attuale direttrice per l&#8217;AI e l&#8217;industria digitale della Commissione europea, avr\u00e0 un ruolo cruciale nell&#8217;attuazione dell&#8217;AI Act. Il suo compito principale sar\u00e0 garantire l&#8217;applicazione coerente della nuova normativa in tutti gli Stati membri, fornendo supporto e coordinamento.<\/p>\n\n\n\n<p>A livello nazionale, ogni Stato membro dell&#8217;UE \u00e8 tenuto a istituire autorit\u00e0 nazionali competenti entro agosto 2025. Queste autorit\u00e0 avranno la responsabilit\u00e0 di supervisionare e far rispettare la legge nei rispettivi paesi. Ci\u00f2 comporta la necessit\u00e0 di sviluppare competenze specifiche nel campo dell&#8217;IA e della sua regolamentazione, un processo che richieder\u00e0 tempo e risorse significative.<\/p>\n\n\n\n<p>Per facilitare questo processo, la Commissione europea ha lanciato diverse iniziative di supporto. Tra queste, il &#8220;patto per l&#8217;IA&#8221;, che invita le aziende del settore a impegnarsi volontariamente ad anticipare l&#8217;attuazione dei requisiti dell&#8217;AI Act. Questa iniziativa mira a creare standard di riferimento per il mercato e a promuovere una cultura di conformit\u00e0 proattiva.<\/p>\n\n\n\n<p>Dal lato delle imprese, la preparazione all&#8217;AI Act richiede un approccio multifacettato. Le aziende devono innanzitutto creare un inventario completo dei loro sistemi di IA, identificando quelli che potrebbero rientrare nelle categorie ad alto rischio o vietate. Questo processo di due diligence \u00e8 fondamentale per comprendere l&#8217;entit\u00e0 degli adeguamenti necessari.<\/p>\n\n\n\n<p>Le organizzazioni devono poi stabilire robusti processi di governance dell&#8217;IA. Ci\u00f2 include la creazione di team dedicati alla supervisione dell&#8217;implementazione e dell&#8217;uso dei sistemi di IA, lo sviluppo di modelli di governance e l&#8217;implementazione di misure tecniche e organizzative per garantire l&#8217;uso responsabile dell&#8217;IA.<\/p>\n\n\n\n<p>Per i sistemi classificati come ad alto rischio, le aziende dovranno implementare rigidi controlli, inclusi sistemi di gestione del rischio, garanzie di qualit\u00e0 dei dati, meccanismi di supervisione umana e procedure di documentazione dettagliate. Sar\u00e0 inoltre necessario sviluppare competenze interne o acquisire expertise esterna per condurre valutazioni d&#8217;impatto sui diritti fondamentali, un requisito chiave per molti sistemi ad alto rischio.<\/p>\n\n\n\n<p>Le imprese devono anche prepararsi a soddisfare i requisiti di trasparenza dell&#8217;AI Act. Ci\u00f2 potrebbe comportare modifiche significative ai loro processi di sviluppo e documentazione, in particolare per quanto riguarda la divulgazione di informazioni sui set di dati di training e sulle capacit\u00e0 e limitazioni dei loro sistemi di IA.<\/p>\n\n\n\n<p>Infine, molte aziende stanno investendo nella formazione del personale per garantire una comprensione diffusa delle implicazioni dell&#8217;AI Act. Questa formazione non si limita ai team tecnici, ma si estende a tutte le funzioni aziendali coinvolte nello sviluppo, nell&#8217;implementazione e nell&#8217;uso dei sistemi di IA.\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b<\/p>\n\n\n\n<ol start=\"8\" class=\"wp-block-list\">\n<li><strong>Reazioni del settore e dibattito<\/strong><\/li>\n<\/ol>\n\n\n\n<p>L&#8217;introduzione dell&#8217;AI Act ha suscitato un intenso dibattito all&#8217;interno del settore tecnologico e oltre, generando una gamma di reazioni che vanno dal sostegno entusiasta alle critiche preoccupate. Questo dibattito riflette la complessit\u00e0 delle sfide poste dalla regolamentazione dell&#8217;intelligenza artificiale e le diverse prospettive sulle sue potenziali implicazioni.<\/p>\n\n\n\n<p>Da un lato, molti esperti di etica dell&#8217;IA e difensori dei diritti digitali hanno accolto con favore l&#8217;AI Act, vedendolo come un passo necessario verso un uso pi\u00f9 responsabile e centrato sull&#8217;uomo dell&#8217;intelligenza artificiale. Questi sostenitori argumentano che il regolamento fornisce una base solida per proteggere i diritti fondamentali dei cittadini europei, prevenire gli abusi dell&#8217;IA e promuovere la fiducia del pubblico in questa tecnologia. Ritengono che stabilire standard elevati possa effettivamente stimolare l&#8217;innovazione responsabile e posizionare l&#8217;UE come leader globale nell&#8217;IA etica.<\/p>\n\n\n\n<p>Dall&#8217;altro lato, numerose voci nel settore tecnologico hanno espresso preoccupazioni riguardo all&#8217;impatto potenzialmente negativo dell&#8217;AI Act sull&#8217;innovazione e la competitivit\u00e0. Un esempio significativo di questa posizione \u00e8 la lettera aperta firmata da oltre 150 dirigenti di grandi aziende europee, tra cui Renault, Heineken, Airbus e Siemens. Questi leader aziendali hanno avvertito che il regolamento potrebbe avere &#8220;implicazioni catastrofiche per la competitivit\u00e0 europea&#8221;, temendo che regole troppo rigide possano rallentare lo sviluppo tecnologico e mettere le aziende europee in svantaggio rispetto ai concorrenti globali.<\/p>\n\n\n\n<p>Alcune critiche si sono concentrate sulla natura stessa dell&#8217;approccio regolamentare. France Digitale, un&#8217;organizzazione che rappresenta le startup tecnologiche in Europa, ha criticato l&#8217;approccio dell&#8217;AI Act, affermando che &#8220;Abbiamo chiesto di non regolamentare la tecnologia in quanto tale, ma di regolamentare gli usi della tecnologia. La soluzione adottata dall&#8217;Europa oggi equivale a regolamentare la matematica, il che non ha molto senso&#8221;. Questa critica riflette una preoccupazione pi\u00f9 ampia sul rischio di soffocare l&#8217;innovazione attraverso una regolamentazione eccessivamente ampia o rigida.<\/p>\n\n\n\n<p>Tuttavia, i sostenitori del regolamento, inclusi i rappresentanti della Commissione europea, hanno respinto l&#8217;idea che l&#8217;AI Act sia puramente restrittivo. Thomas Regnier, portavoce della Commissione, ha sottolineato che &#8220;La legislazione non \u00e8 l\u00ec per impedire alle aziende di lanciare i loro sistemi, \u00e8 il contrario. Vogliamo che operino nell&#8217;UE, ma vogliamo proteggere i nostri cittadini e proteggere le nostre aziende&#8221;. Questa prospettiva vede l&#8217;AI Act come un mezzo per creare un ecosistema di IA pi\u00f9 affidabile e sostenibile a lungo termine.<\/p>\n\n\n\n<p>Il dibattito si \u00e8 esteso anche alle implicazioni pratiche del regolamento. Alcune aziende hanno espresso preoccupazioni sulla fattibilit\u00e0 di conformarsi a certi requisiti, come la divulgazione dettagliata dei set di dati di training, che potrebbero entrare in conflitto con la protezione della propriet\u00e0 intellettuale o esporre dati sensibili. Altri hanno sollevato questioni sulla chiarezza di alcune definizioni e categorie di rischio, temendo che l&#8217;ambiguit\u00e0 possa portare a incertezze nell&#8217;applicazione.<\/p>\n\n\n\n<p>Nonostante le divergenze, c&#8217;\u00e8 un crescente riconoscimento della necessit\u00e0 di un quadro normativo per l&#8217;IA. Molte aziende e organizzazioni stanno adottando un approccio proattivo, vedendo la conformit\u00e0 all&#8217;AI Act non solo come un obbligo legale, ma anche come un&#8217;opportunit\u00e0 per differenziarsi come leader nell&#8217;IA responsabile ed etica.\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b<\/p>\n\n\n\n<ol start=\"9\" class=\"wp-block-list\">\n<li><strong>Implicazioni globali e sfide future<\/strong><\/li>\n<\/ol>\n\n\n\n<p>L&#8217;AI Act dell&#8217;UE, essendo il primo quadro normativo completo al mondo per l&#8217;intelligenza artificiale, ha implicazioni che si estendono ben oltre i confini dell&#8217;Unione Europea, influenzando il panorama globale dell&#8217;IA e ponendo nuove sfide per il futuro.<\/p>\n\n\n\n<p>A livello internazionale, l&#8217;AI Act sta gi\u00e0 avendo un effetto significativo, con molti paesi e organizzazioni che guardano all&#8217;UE come modello per le proprie iniziative di regolamentazione dell&#8217;IA. Questo &#8220;effetto Bruxelles&#8221; potrebbe portare a un&#8217;armonizzazione globale degli standard dell&#8217;IA, simile a quanto accaduto con il GDPR nel campo della protezione dei dati. Le aziende multinazionali, in particolare, potrebbero scegliere di adottare gli standard dell&#8217;UE a livello globale per semplificare le operazioni e garantire la conformit\u00e0 in tutti i mercati.<\/p>\n\n\n\n<p>Tuttavia, questa influenza globale presenta anche delle sfide. C&#8217;\u00e8 il rischio di una frammentazione normativa se altre giurisdizioni adottano approcci significativamente diversi. Ci\u00f2 potrebbe creare complessit\u00e0 per le aziende che operano a livello internazionale e potenzialmente ostacolare l&#8217;innovazione e la collaborazione globale nel campo dell&#8217;IA. La sfida sar\u00e0 trovare un equilibrio tra la sovranit\u00e0 normativa e la necessit\u00e0 di standard internazionali coerenti.<\/p>\n\n\n\n<p>L&#8217;AI Act potrebbe anche influenzare le dinamiche geopolitiche nel settore tecnologico. Con l&#8217;UE che si posiziona come leader nella regolamentazione dell&#8217;IA, potrebbero emergere tensioni con altri attori globali, come gli Stati Uniti e la Cina, che potrebbero percepire il regolamento come una minaccia alla loro competitivit\u00e0 o come un tentativo di imporre standard europei a livello globale.<\/p>\n\n\n\n<p>Una sfida cruciale per il futuro sar\u00e0 mantenere il regolamento al passo con il rapido progresso tecnologico. L&#8217;IA \u00e8 un campo in rapida evoluzione, e nuove tecnologie e applicazioni emergono costantemente. L&#8217;AI Act dovr\u00e0 essere sufficientemente flessibile per adattarsi a questi cambiamenti senza diventare rapidamente obsoleto. La Commissione europea ha previsto revisioni periodiche del regolamento, ma resta da vedere quanto efficacemente queste revisioni possano tenere il passo con l&#8217;innovazione.<\/p>\n\n\n\n<p>Un&#8217;altra sfida significativa sar\u00e0 l&#8217;applicazione pratica del regolamento. Le autorit\u00e0 di regolamentazione dovranno sviluppare rapidamente competenze tecniche avanzate per valutare efficacemente la conformit\u00e0 dei sistemi di IA complessi. Inoltre, l&#8217;interpretazione di concetti come &#8220;alto rischio&#8221; o &#8220;supervisione umana significativa&#8221; potrebbe variare tra i diversi Stati membri, portando potenzialmente a inconsistenze nell&#8217;applicazione.<\/p>\n\n\n\n<p>La questione dell&#8217;extraterritorialit\u00e0 dell&#8217;AI Act pone ulteriori sfide. Mentre il regolamento si applica a qualsiasi sistema di IA utilizzato nell&#8217;UE, indipendentemente dall&#8217;origine dello sviluppatore, l&#8217;applicazione pratica di questa disposizione a aziende non UE potrebbe risultare complessa e potenzialmente controversa.<\/p>\n\n\n\n<p>Infine, c&#8217;\u00e8 la sfida di bilanciare la protezione dei diritti fondamentali con la necessit\u00e0 di promuovere l&#8217;innovazione e la competitivit\u00e0 europea nel settore dell&#8217;IA. L&#8217;UE dovr\u00e0 dimostrare che un approccio regolamentare rigoroso pu\u00f2 coesistere con un ecosistema di IA dinamico e innovativo.<\/p>\n\n\n\n<p>Guardando al futuro, l&#8217;AI Act rappresenta solo l&#8217;inizio di un processo continuo di adattamento normativo all&#8217;evoluzione dell&#8217;IA. Il suo successo dipender\u00e0 dalla capacit\u00e0 dell&#8217;UE di navigare queste complesse sfide, mantenendo un equilibrio tra protezione, innovazione e competitivit\u00e0 globale.\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b<\/p>\n\n\n\n<ol start=\"10\" class=\"wp-block-list\">\n<li><strong>Conclusione: Bilanciare innovazione e protezione dei diritti<\/strong><\/li>\n<\/ol>\n\n\n\n<p>L&#8217;AI Act dell&#8217;Unione Europea rappresenta un punto di svolta nella regolamentazione dell&#8217;intelligenza artificiale, cercando di bilanciare la promozione dell&#8217;innovazione tecnologica con la protezione dei diritti fondamentali dei cittadini. Questo equilibrio delicato \u00e8 al cuore del regolamento e definir\u00e0 il suo successo o fallimento negli anni a venire.<\/p>\n\n\n\n<p>Da un lato, l&#8217;AI Act mira a creare un ambiente di fiducia per lo sviluppo e l&#8217;adozione dell&#8217;IA. Stabilendo standard chiari e rigorosi, il regolamento cerca di rassicurare i cittadini sulla sicurezza e l&#8217;affidabilit\u00e0 dei sistemi di IA, potenzialmente accelerando l&#8217;adozione di queste tecnologie in settori critici come la sanit\u00e0, i trasporti e i servizi finanziari. Questo approccio potrebbe stimolare una forma di innovazione pi\u00f9 responsabile e centrata sull&#8217;uomo, allineata con i valori europei.<\/p>\n\n\n\n<p>D&#8217;altra parte, il regolamento impone nuovi obblighi e restrizioni che potrebbero rallentare lo sviluppo e l&#8217;implementazione di alcune tecnologie di IA. Le aziende dovranno investire risorse significative per garantire la conformit\u00e0, il che potrebbe dirottare fondi dalla ricerca e sviluppo. C&#8217;\u00e8 il rischio che alcune innovazioni promettenti possano essere abbandonate o ritardate a causa dei costi o delle complessit\u00e0 associate alla conformit\u00e0 normativa.<\/p>\n\n\n\n<p>Tuttavia, l&#8217;approccio basato sul rischio adottato dall&#8217;AI Act offre una via potenziale per navigare questo dilemma. Concentrando gli sforzi regolatori sui sistemi ad alto rischio, il regolamento cerca di minimizzare gli oneri sulle applicazioni di IA a basso rischio, che costituiscono la maggioranza dei sistemi. Questo approccio potrebbe consentire un&#8217;innovazione relativamente libera in molte aree, pur fornendo protezioni robuste dove sono pi\u00f9 necessarie.<\/p>\n\n\n\n<p>L&#8217;AI Act potrebbe anche stimolare nuove forme di innovazione. La necessit\u00e0 di sistemi di IA pi\u00f9 trasparenti, robusti e affidabili potrebbe portare a progressi significativi in aree come l&#8217;IA spiegabile, l&#8217;equit\u00e0 algoritmica e la privacy preservante. Inoltre, il regolamento potrebbe creare nuovi mercati per soluzioni di conformit\u00e0 IA, offrendo opportunit\u00e0 per startup e PMI innovative.<\/p>\n\n\n\n<p>Il successo a lungo termine dell&#8217;AI Act dipender\u00e0 dalla sua capacit\u00e0 di evolversi insieme alla tecnologia che cerca di regolare. Le revisioni periodiche previste dal regolamento saranno cruciali per garantire che rimanga rilevante e efficace di fronte ai rapidi progressi dell&#8217;IA. Sar\u00e0 essenziale un dialogo continuo tra legislatori, industria, accademia e societ\u00e0 civile per navigare le sfide emergenti e adattare il regolamento di conseguenza.<\/p>\n\n\n\n<p>Infine, l&#8217;AI Act rappresenta una scommessa ambiziosa dell&#8217;UE sul futuro dell&#8217;IA. Posizionandosi come leader nella regolamentazione dell&#8217;IA etica e affidabile, l&#8217;UE spera di influenzare gli standard globali e di creare un vantaggio competitivo per le aziende europee. Se avr\u00e0 successo, potrebbe dimostrare che una forte protezione dei diritti e una robusta innovazione tecnologica non solo possono coesistere, ma possono rafforzarsi a vicenda.<\/p>\n\n\n\n<p>In conclusione, l&#8217;AI Act segna l&#8217;inizio di una nuova era nella governance dell&#8217;IA. Il suo impatto si estender\u00e0 ben oltre i confini dell&#8217;UE, influenzando il modo in cui l&#8217;IA viene sviluppata e utilizzata in tutto il mondo. Mentre le sfide sono significative, il regolamento offre una visione ambiziosa di un futuro in cui l&#8217;innovazione tecnologica procede di pari passo con la protezione dei diritti umani e dei valori democratici.\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b<\/p>\n\n\n\n<p><strong>Lo schema <\/strong><\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li>1\u00b0 agosto 2024: Entrata in vigore formale del regolamento<\/li>\n\n\n\n<li>2 novembre 2024:<\/li>\n<\/ol>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Termine per l&#8217;identificazione e la notifica alla Commissione dell&#8217;Autorit\u00e0 pubblica nazionale per la tutela dei diritti fondamentali in ciascuno Stato membro<\/li>\n<\/ul>\n\n\n\n<ol class=\"wp-block-list\">\n<li>2 febbraio 2025:<\/li>\n<\/ol>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Applicazione dei divieti su pratiche di IA a &#8220;rischio inaccettabile&#8221;<\/li>\n\n\n\n<li>Entrata in vigore del Capo I (Disposizioni generali) e del Capo II (Pratiche di IA vietate)<\/li>\n<\/ul>\n\n\n\n<ol class=\"wp-block-list\">\n<li>2 maggio 2025:<\/li>\n<\/ol>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Pubblicazione dei codici di condotta per gli sviluppatori di IA<\/li>\n<\/ul>\n\n\n\n<ol class=\"wp-block-list\">\n<li>2 agosto 2025:<\/li>\n<\/ol>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Applicazione delle norme per i modelli di IA per uso generale (GPAI)<\/li>\n\n\n\n<li>Entrata in vigore delle disposizioni relative ai modelli, alle norme e alla governance dell&#8217;UE<\/li>\n\n\n\n<li>Termine per la designazione delle Autorit\u00e0 nazionali competenti<\/li>\n\n\n\n<li>Inizio dell&#8217;applicazione delle sanzioni<\/li>\n<\/ul>\n\n\n\n<ol class=\"wp-block-list\">\n<li>2 agosto 2026:<\/li>\n<\/ol>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Applicazione generale della maggior parte delle disposizioni del regolamento<\/li>\n\n\n\n<li>Entrata in vigore degli obblighi per i sistemi di IA ad alto rischio (Allegato III)<\/li>\n<\/ul>\n\n\n\n<ol class=\"wp-block-list\">\n<li>2 agosto 2027:<\/li>\n<\/ol>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Applicazione delle disposizioni sulla classificazione e obblighi per altri sistemi di IA ad alto rischio non inclusi nell&#8217;Allegato III<\/li>\n<\/ul>\n\n\n\n<ol class=\"wp-block-list\">\n<li>2 agosto 2028:<\/li>\n<\/ol>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Prima valutazione della Commissione UE sull&#8217;impatto del regolamento<\/li>\n<\/ul>\n\n\n\n<ol class=\"wp-block-list\">\n<li>2 agosto 2029:<\/li>\n<\/ol>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Revisione completa del regolamento da parte della Commissione UE<\/li>\n<\/ul>\n\n\n\n<ol class=\"wp-block-list\">\n<li>2 agosto 2030:\n<ul class=\"wp-block-list\">\n<li>Termine ultimo per la conformit\u00e0 dei sistemi di IA delle autorit\u00e0 pubbliche<\/li>\n<\/ul>\n<\/li>\n\n\n\n<li>31 dicembre 2030:\n<ul class=\"wp-block-list\">\n<li>Termine ultimo per la conformit\u00e0 dei sistemi di IA componenti di grandi sistemi IT UE<\/li>\n<\/ul>\n<\/li>\n<\/ol>\n\n\n\n<p>Questa scaletta mostra l&#8217;approccio graduale all&#8217;implementazione dell&#8217;AI Act, dando tempo alle varie parti interessate di adattarsi alle nuove regole.\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b<\/p>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Il 1\u00b0 agosto 2024 segna una pietra miliare nella storia della regolamentazione tecnologica: l&#8217;entrata in vigore dell&#8217;Artificial Intelligence Act dell&#8217;Unione Europea. Questo regolamento, noto come AI Act, rappresenta il primo quadro normativo completo al mondo per l&#8217;intelligenza artificiale, stabilendo un precedente globale per la gestione di questa tecnologia in rapida evoluzione. Pubblicato sulla Gazzetta Ufficiale [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[],"class_list":["post-7074","post","type-post","status-publish","format-standard","hentry","category-non-categorizzato"],"yoast_head":"<!-- This site is optimized with the Yoast SEO Premium plugin v23.3 (Yoast SEO v25.6) - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Primo agosto: Ai act mio non ti conosco - PB Consulting<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.consultingpb.com\/blog\/non-categorizzato\/primo-agosto-ai-act-mio-non-ti-conosco\/\" \/>\n<meta property=\"og:locale\" content=\"en_US\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Primo agosto: Ai act mio non ti conosco\" \/>\n<meta property=\"og:description\" content=\"Il 1\u00b0 agosto 2024 segna una pietra miliare nella storia della regolamentazione tecnologica: l&#8217;entrata in vigore dell&#8217;Artificial Intelligence Act dell&#8217;Unione Europea. Questo regolamento, noto come AI Act, rappresenta il primo quadro normativo completo al mondo per l&#8217;intelligenza artificiale, stabilendo un precedente globale per la gestione di questa tecnologia in rapida evoluzione. Pubblicato sulla Gazzetta Ufficiale [&hellip;]\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.consultingpb.com\/blog\/non-categorizzato\/primo-agosto-ai-act-mio-non-ti-conosco\/\" \/>\n<meta property=\"og:site_name\" content=\"PB Consulting\" \/>\n<meta property=\"article:author\" content=\"https:\/\/www.facebook.com\/alberto.bozzo.9\" \/>\n<meta property=\"article:published_time\" content=\"2024-08-03T09:25:45+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-08-03T09:26:00+00:00\" \/>\n<meta name=\"author\" content=\"Alberto Bozzo\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Alberto Bozzo\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"25 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/non-categorizzato\/primo-agosto-ai-act-mio-non-ti-conosco\/\",\"url\":\"https:\/\/www.consultingpb.com\/blog\/non-categorizzato\/primo-agosto-ai-act-mio-non-ti-conosco\/\",\"name\":\"Primo agosto: Ai act mio non ti conosco - PB Consulting\",\"isPartOf\":{\"@id\":\"https:\/\/www.consultingpb.com\/#website\"},\"datePublished\":\"2024-08-03T09:25:45+00:00\",\"dateModified\":\"2024-08-03T09:26:00+00:00\",\"author\":{\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50\"},\"breadcrumb\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/non-categorizzato\/primo-agosto-ai-act-mio-non-ti-conosco\/#breadcrumb\"},\"inLanguage\":\"en-US\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/www.consultingpb.com\/blog\/non-categorizzato\/primo-agosto-ai-act-mio-non-ti-conosco\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/non-categorizzato\/primo-agosto-ai-act-mio-non-ti-conosco\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/www.consultingpb.com\/en\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Primo agosto: Ai act mio non ti conosco\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/www.consultingpb.com\/#website\",\"url\":\"https:\/\/www.consultingpb.com\/\",\"name\":\"PB Consulting\",\"description\":\"\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/www.consultingpb.com\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"en-US\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50\",\"name\":\"Alberto Bozzo\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g\",\"caption\":\"Alberto Bozzo\"},\"sameAs\":[\"https:\/\/www.consultingpb.com\/\",\"https:\/\/www.facebook.com\/alberto.bozzo.9\",\"https:\/\/www.instagram.com\/ab_dirittorovescio\/\",\"https:\/\/www.linkedin.com\/in\/alberto-bozzo-57982b63\/\"],\"url\":\"https:\/\/www.consultingpb.com\/en\/blog\/author\/alberto\/\"}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"Primo agosto: Ai act mio non ti conosco - PB Consulting","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.consultingpb.com\/blog\/non-categorizzato\/primo-agosto-ai-act-mio-non-ti-conosco\/","og_locale":"en_US","og_type":"article","og_title":"Primo agosto: Ai act mio non ti conosco","og_description":"Il 1\u00b0 agosto 2024 segna una pietra miliare nella storia della regolamentazione tecnologica: l&#8217;entrata in vigore dell&#8217;Artificial Intelligence Act dell&#8217;Unione Europea. Questo regolamento, noto come AI Act, rappresenta il primo quadro normativo completo al mondo per l&#8217;intelligenza artificiale, stabilendo un precedente globale per la gestione di questa tecnologia in rapida evoluzione. Pubblicato sulla Gazzetta Ufficiale [&hellip;]","og_url":"https:\/\/www.consultingpb.com\/blog\/non-categorizzato\/primo-agosto-ai-act-mio-non-ti-conosco\/","og_site_name":"PB Consulting","article_author":"https:\/\/www.facebook.com\/alberto.bozzo.9","article_published_time":"2024-08-03T09:25:45+00:00","article_modified_time":"2024-08-03T09:26:00+00:00","author":"Alberto Bozzo","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Alberto Bozzo","Est. reading time":"25 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/www.consultingpb.com\/blog\/non-categorizzato\/primo-agosto-ai-act-mio-non-ti-conosco\/","url":"https:\/\/www.consultingpb.com\/blog\/non-categorizzato\/primo-agosto-ai-act-mio-non-ti-conosco\/","name":"Primo agosto: Ai act mio non ti conosco - PB Consulting","isPartOf":{"@id":"https:\/\/www.consultingpb.com\/#website"},"datePublished":"2024-08-03T09:25:45+00:00","dateModified":"2024-08-03T09:26:00+00:00","author":{"@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50"},"breadcrumb":{"@id":"https:\/\/www.consultingpb.com\/blog\/non-categorizzato\/primo-agosto-ai-act-mio-non-ti-conosco\/#breadcrumb"},"inLanguage":"en-US","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.consultingpb.com\/blog\/non-categorizzato\/primo-agosto-ai-act-mio-non-ti-conosco\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/www.consultingpb.com\/blog\/non-categorizzato\/primo-agosto-ai-act-mio-non-ti-conosco\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/www.consultingpb.com\/en\/"},{"@type":"ListItem","position":2,"name":"Primo agosto: Ai act mio non ti conosco"}]},{"@type":"WebSite","@id":"https:\/\/www.consultingpb.com\/#website","url":"https:\/\/www.consultingpb.com\/","name":"PB Consulting","description":"","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.consultingpb.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"en-US"},{"@type":"Person","@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50","name":"Alberto Bozzo","image":{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g","caption":"Alberto Bozzo"},"sameAs":["https:\/\/www.consultingpb.com\/","https:\/\/www.facebook.com\/alberto.bozzo.9","https:\/\/www.instagram.com\/ab_dirittorovescio\/","https:\/\/www.linkedin.com\/in\/alberto-bozzo-57982b63\/"],"url":"https:\/\/www.consultingpb.com\/en\/blog\/author\/alberto\/"}]}},"_links":{"self":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/7074","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/comments?post=7074"}],"version-history":[{"count":2,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/7074\/revisions"}],"predecessor-version":[{"id":7077,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/7074\/revisions\/7077"}],"wp:attachment":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/media?parent=7074"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/categories?post=7074"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/tags?post=7074"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}