{"id":7606,"date":"2025-02-05T10:28:16","date_gmt":"2025-02-05T10:28:16","guid":{"rendered":"https:\/\/www.consultingpb.com\/?p=7606"},"modified":"2025-02-06T09:25:43","modified_gmt":"2025-02-06T09:25:43","slug":"ai-act-le-pratiche-vietate-dellintelligenza-artificiale-e-le-nuove-regole-ue-per-unai-etica","status":"publish","type":"post","link":"https:\/\/www.consultingpb.com\/en\/blog\/diritto-rovescio\/ai-act-le-pratiche-vietate-dellintelligenza-artificiale-e-le-nuove-regole-ue-per-unai-etica\/","title":{"rendered":"AI Act: Le Pratiche Vietate dell&#8217;Intelligenza Artificiale e le Nuove Regole UE per un&#8217;AI Etica"},"content":{"rendered":"\n<h2 class=\"wp-block-heading\" id=\"h-introduzione\"><strong>Introduzione<\/strong><\/h2>\n\n\n\n<p>Con l\u2019entrata in vigore dell\u2019<strong>AI Act<\/strong>, l\u2019Unione Europea si pone all\u2019avanguardia nella regolamentazione dell\u2019intelligenza artificiale, introducendo un sistema basato sul&nbsp;<strong>rischio<\/strong>. Questo approccio distingue le AI in quattro categorie:&nbsp;<strong>rischio inaccettabile (vietate), alto rischio (regolamentate), rischio limitato (trasparenti) e rischio minimo (non regolamentate)<\/strong>. Al vertice di questa classificazione si trovano le pratiche&nbsp;<strong>espressamente vietate<\/strong>&nbsp;dall\u2019Articolo 5 dell\u2019AI Act, in quanto considerate dannose per i diritti e le libert\u00e0 fondamentali.<\/p>\n\n\n\n<p>Le linee guida della Commissione Europea approfondiscono queste proibizioni, fornendo&nbsp;<strong>criteri interpretativi<\/strong>&nbsp;per evitare applicazioni ambigue della normativa. Le pratiche vietate includono:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Manipolazione e inganno<\/strong>, tramite tecniche subliminali o manipolative.<\/li>\n\n\n\n<li><strong>Sfruttamento delle vulnerabilit\u00e0<\/strong>, rivolto a bambini, anziani o persone in difficolt\u00e0.<\/li>\n\n\n\n<li><strong>Social scoring<\/strong>, ossia la valutazione delle persone basata su comportamenti sociali o personali.<\/li>\n\n\n\n<li><strong>Predizione del rischio criminale individuale<\/strong>, basata esclusivamente su dati biometrici o profili personali.<\/li>\n\n\n\n<li><strong>Scraping indiscriminato di immagini facciali<\/strong>, per creare database di riconoscimento senza consenso.<\/li>\n\n\n\n<li><strong>Riconoscimento delle emozioni<\/strong>, vietato in scuole e luoghi di lavoro salvo eccezioni.<\/li>\n\n\n\n<li><strong>Categorizzazione biometrica<\/strong>, usata per inferire razza, orientamento politico, religione e altro.<\/li>\n\n\n\n<li><strong>Identificazione biometrica remota in tempo reale<\/strong>, vietata nei luoghi pubblici per la sorveglianza di massa.<\/li>\n<\/ul>\n\n\n\n<p>L\u2019adozione di questi divieti non \u00e8 casuale, ma risponde a&nbsp;<strong>preoccupazioni concrete<\/strong>&nbsp;legate alla sorveglianza di massa, alla discriminazione automatizzata e alla manipolazione del comportamento umano. Inoltre, il regolamento introduce&nbsp;<strong>sanzioni severe<\/strong>, che possono arrivare fino a&nbsp;<strong>35 milioni di euro o il 7% del fatturato globale<\/strong>&nbsp;per chi viola le disposizioni.<\/p>\n\n\n\n<p>In questo articolo, analizzeremo nel dettaglio ciascuna pratica vietata, spiegando&nbsp;<strong>perch\u00e9 \u00e8 considerata pericolosa, quali sono le implicazioni etiche e legali e quali sanzioni sono previste per chi non rispetta il regolamento<\/strong>.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<div data-wp-interactive=\"core\/file\" class=\"wp-block-file\"><object data-wp-bind--hidden=\"!state.hasPdfPreview\" hidden class=\"wp-block-file__embed\" data=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2025\/02\/C_2025_884_2_EN_ACT_part1_v2_OlFHGWKJRcz1XPvgNW2ZVuggMw_112366.pdf\" type=\"application\/pdf\" style=\"width:100%;height:600px\" aria-label=\"Embed of C_2025_884_2_EN_ACT_part1_v2_OlFHGWKJRcz1XPvgNW2ZVuggMw_112366.\"><\/object><a id=\"wp-block-file--media-8d471f72-998d-47f9-bf22-91ac04fbfd80\" href=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2025\/02\/C_2025_884_2_EN_ACT_part1_v2_OlFHGWKJRcz1XPvgNW2ZVuggMw_112366.pdf\">C_2025_884_2_EN_ACT_part1_v2_OlFHGWKJRcz1XPvgNW2ZVuggMw_112366<\/a><a href=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2025\/02\/C_2025_884_2_EN_ACT_part1_v2_OlFHGWKJRcz1XPvgNW2ZVuggMw_112366.pdf\" class=\"wp-block-file__button wp-element-button\" download aria-describedby=\"wp-block-file--media-8d471f72-998d-47f9-bf22-91ac04fbfd80\">Download<\/a><\/div>\n\n\n\n<div data-wp-interactive=\"core\/file\" class=\"wp-block-file\"><object data-wp-bind--hidden=\"!state.hasPdfPreview\" hidden class=\"wp-block-file__embed\" data=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2025\/02\/C_2025_884_1_EN_annexe_acte_autonome_cp_part1_v4_4YAkRZf5bMIWOuMqiKMIGySPo_112367.pdf\" type=\"application\/pdf\" style=\"width:100%;height:600px\" aria-label=\"Embed of C_2025_884_1_EN_annexe_acte_autonome_cp_part1_v4_4YAkRZf5bMIWOuMqiKMIGySPo_112367.\"><\/object><a id=\"wp-block-file--media-d8127031-2add-41df-b63e-8d68d63e26a2\" href=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2025\/02\/C_2025_884_1_EN_annexe_acte_autonome_cp_part1_v4_4YAkRZf5bMIWOuMqiKMIGySPo_112367.pdf\">C_2025_884_1_EN_annexe_acte_autonome_cp_part1_v4_4YAkRZf5bMIWOuMqiKMIGySPo_112367<\/a><a href=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2025\/02\/C_2025_884_1_EN_annexe_acte_autonome_cp_part1_v4_4YAkRZf5bMIWOuMqiKMIGySPo_112367.pdf\" class=\"wp-block-file__button wp-element-button\" download aria-describedby=\"wp-block-file--media-d8127031-2add-41df-b63e-8d68d63e26a2\">Download<\/a><\/div>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>1. Manipolazione e inganno: AI che usa tecniche subliminali o manipolative per distorcere il comportamento umano con effetti dannosi.<\/strong><\/h3>\n\n\n\n<p>L&#8217;<strong>AI Act vieta l\u2019uso di tecniche subliminali o manipolative<\/strong>&nbsp;che influenzano il comportamento umano senza che l\u2019individuo ne sia consapevole. Questo divieto mira a proteggere la capacit\u00e0 decisionale autonoma e la libert\u00e0 individuale. Le tecniche subliminali possono includere&nbsp;<strong>stimoli visivi o sonori impercettibili<\/strong>, messaggi nascosti in contenuti digitali o il condizionamento inconscio attraverso pattern di interazione con un sistema AI. La manipolazione pu\u00f2 anche avvenire con sistemi di&nbsp;<strong>nudging avanzato<\/strong>, che spingono le persone a compiere azioni che altrimenti non avrebbero scelto. Un esempio concreto potrebbe essere un AI che&nbsp;<strong>modifica impercettibilmente il tono di un chatbot<\/strong>&nbsp;per influenzare le risposte dell\u2019utente, spingendolo ad acquistare un prodotto o a fornire dati personali senza rendersene conto. Il divieto si applica solo se la manipolazione porta a&nbsp;<strong>un danno significativo<\/strong>, come la perdita di denaro, danni psicologici o discriminazioni. Questo divieto \u00e8 particolarmente rilevante nel settore pubblicitario, dei social media e dell\u2019e-commerce, dove tecniche persuasive avanzate potrebbero essere implementate per ottenere un vantaggio commerciale ingiusto.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\" \/>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>2. Sfruttamento delle vulnerabilit\u00e0: AI che approfitta di et\u00e0, disabilit\u00e0 o situazioni socio-economiche per influenzare le decisioni delle persone.<\/strong><\/h3>\n\n\n\n<p>Il Regolamento vieta gli&nbsp;<strong>AI che sfruttano vulnerabilit\u00e0<\/strong>&nbsp;legate a et\u00e0, disabilit\u00e0 o situazioni socio-economiche. Questo significa che i sistemi di intelligenza artificiale non possono approfittare della&nbsp;<strong>fragilit\u00e0 cognitiva dei bambini, della ridotta capacit\u00e0 di giudizio di persone con disabilit\u00e0 mentali<\/strong>&nbsp;o delle difficolt\u00e0 finanziarie di chi si trova in situazioni di povert\u00e0. Un esempio potrebbe essere&nbsp;<strong>un chatbot finanziario che propone prestiti ad alto tasso d\u2019interesse a persone economicamente vulnerabili<\/strong>, manipolandole affinch\u00e9 accettino condizioni sfavorevoli. Oppure, un giocattolo interattivo con AI che&nbsp;<strong>spinge un bambino a effettuare acquisti in-app<\/strong>&nbsp;senza la piena consapevolezza del genitore. Questo tipo di AI \u00e8 considerato inaccettabile perch\u00e9 mina la dignit\u00e0 umana e pu\u00f2 portare a danni economici e psicologici. Il divieto non si applica alle AI che&nbsp;<strong>forniscono assistenza inclusiva<\/strong>, come strumenti per persone con disabilit\u00e0, a patto che non abusino della vulnerabilit\u00e0 dell\u2019utente per fini ingannevoli.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\" \/>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>3. Social scoring: Sistemi di valutazione basati su comportamenti sociali che portano a trattamenti discriminatori o sproporzionati.<\/strong><\/h3>\n\n\n\n<p>L\u2019AI Act proibisce il cosiddetto&nbsp;<strong>&#8220;social scoring&#8221;<\/strong>, ovvero la classificazione degli individui in base al loro comportamento sociale o alle loro caratteristiche personali. Questo divieto si ispira alla preoccupazione che tali sistemi possano portare a&nbsp;<strong>discriminazioni sistemiche e trattamenti iniqui<\/strong>. Ad esempio, un sistema AI che analizza&nbsp;<strong>le interazioni sui social media, il comportamento finanziario o la partecipazione a eventi politici<\/strong>&nbsp;per decidere chi pu\u00f2 accedere a un prestito o a un impiego sarebbe vietato. In alcuni paesi, il social scoring \u00e8 stato implementato per limitare l\u2019accesso a servizi pubblici in base a criteri di affidabilit\u00e0 sociale, creando&nbsp;<strong>disuguaglianze e restrizioni ingiuste<\/strong>. L&#8217;AI Act non vieta tutte le forme di valutazione automatizzata (ad esempio, il credito scoring \u00e8 ancora permesso), ma solo quelle che portano a trattamenti&nbsp;<strong>ingiustificati o sproporzionati in contesti non correlati ai dati analizzati<\/strong>.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\" \/>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>4. Predizione del rischio criminale individuale: AI che valuta la probabilit\u00e0 di crimini basandosi solo su profili o tratti personali.<\/strong><\/h3>\n\n\n\n<p>Questo divieto impedisce agli AI di&nbsp;<strong>valutare il rischio che una persona commetta un crimine sulla base di caratteristiche personali, profili psicologici o dati biometrici<\/strong>. Tali sistemi sono considerati&nbsp;<strong>pericolosi e discriminatori<\/strong>, perch\u00e9 potrebbero portare a pregiudizi razziali o sociali, violando il principio di&nbsp;<strong>presunzione d\u2019innocenza<\/strong>. Ad esempio, un software che attribuisce un &#8220;punteggio di pericolosit\u00e0&#8221; basato sul luogo di nascita, sulla situazione economica o sull\u2019etnia di una persona sarebbe vietato. Tuttavia, l&#8217;AI Act&nbsp;<strong>non vieta l\u2019uso di strumenti predittivi che si basano su dati oggettivi e verificabili<\/strong>, come la mappatura delle zone ad alto tasso di criminalit\u00e0. L\u2019obiettivo del divieto \u00e8&nbsp;<strong>evitare la profilazione ingiustificata<\/strong>&nbsp;e garantire che le valutazioni di rischio siano sempre supportate da&nbsp;<strong>elementi fattuali e verificabili<\/strong>.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\" \/>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>5. Raccolta indiscriminata di immagini facciali: Uso dell\u2019AI per costruire database di riconoscimento facciale tramite scraping di Internet o CCTV.<\/strong><\/h3>\n\n\n\n<p>L&#8217;AI Act proibisce&nbsp;<strong>l&#8217;estrazione massiva e indiscriminata di immagini facciali<\/strong>&nbsp;per creare database di riconoscimento biometrico. Questa pratica, nota come&nbsp;<strong>&#8220;scraping&#8221;<\/strong>, \u00e8 particolarmente controversa perch\u00e9&nbsp;<strong>viola il diritto alla privacy e alla protezione dei dati personali<\/strong>. Un esempio \u00e8 l\u2019uso di AI per raccogliere&nbsp;<strong>immagini dai social media<\/strong>&nbsp;o da telecamere di sorveglianza pubbliche senza il consenso degli interessati. Aziende come Clearview AI sono state criticate per aver creato database biometrici senza autorizzazione, e con l\u2019AI Act tali pratiche diventano illegali. Questo divieto tutela&nbsp;<strong>la libert\u00e0 individuale e il diritto alla privacy<\/strong>, garantendo che i dati biometrici siano raccolti solo in modi trasparenti e legittimi.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\" \/>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>6. Riconoscimento delle emozioni: Vietato in ambienti di lavoro e istruzione, salvo eccezioni per scopi medici o di sicurezza.<\/strong><\/h3>\n\n\n\n<p>Il divieto riguarda le AI utilizzate per&nbsp;<strong>rilevare le emozioni<\/strong>&nbsp;nei contesti di&nbsp;<strong>lavoro e istruzione<\/strong>, per evitare violazioni della privacy e discriminazioni. Sistemi di AI che analizzano&nbsp;<strong>espressioni facciali, tono di voce o gesti per valutare lo stato emotivo di una persona<\/strong>&nbsp;possono essere usati in modo invasivo. Ad esempio, un&#8217;azienda non pu\u00f2&nbsp;<strong>monitorare costantemente il livello di stress<\/strong>&nbsp;dei dipendenti tramite AI, n\u00e9 un\u2019universit\u00e0 pu\u00f2 valutare gli studenti basandosi sulle loro reazioni emotive. Tuttavia, sono previste&nbsp;<strong>eccezioni per motivi medici o di sicurezza<\/strong>, come il monitoraggio dello stato d\u2019animo di un paziente in terapia.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\" \/>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>7. Categorizzazione biometrica: AI che deduce razza, orientamento politico, credo religioso, vita sessuale, ecc. da dati biometrici.<\/strong><\/h3>\n\n\n\n<p>Questo divieto riguarda gli AI che utilizzano&nbsp;<strong>dati biometrici per classificare le persone in base a caratteristiche sensibili<\/strong>, come etnia, religione, orientamento sessuale o politico. Tali sistemi&nbsp;<strong>possono portare a discriminazioni<\/strong>&nbsp;e violazioni della privacy. Un esempio \u00e8 un\u2019AI che&nbsp;<strong>analizza tratti facciali per dedurre l\u2019appartenenza etnica<\/strong>&nbsp;e influenzare decisioni di assunzione o concessione di prestiti. Il divieto si applica&nbsp;<strong>anche alle forze dell\u2019ordine<\/strong>, tranne che per l\u2019etichettatura di dati biometrici gi\u00e0 raccolti legalmente.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\" \/>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>8. Identificazione biometrica remota in tempo reale: Vietata nei luoghi pubblici per fini di polizia, salvo eccezioni specifiche.<\/strong><\/h3>\n\n\n\n<p>L\u2019uso di AI per il&nbsp;<strong>riconoscimento facciale in tempo reale nei luoghi pubblici \u00e8 proibito<\/strong>, tranne in&nbsp;<strong>casi eccezionali<\/strong>come la lotta al terrorismo o la ricerca di persone scomparse. Questa misura mira a prevenire&nbsp;<strong>la sorveglianza di massa e la violazione della privacy<\/strong>. Il divieto si applica alle forze di polizia, ma&nbsp;<strong>non vieta il riconoscimento facciale post-evento<\/strong>, ad esempio per identificare un sospetto dopo un crimine.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\"><strong>Conclusioni: Regolamentare l\u2019AI tra Necessit\u00e0 e Rischi di Sovraregolamentazione<\/strong><\/h4>\n\n\n\n<p>L\u2019adozione dell\u2019<strong>AI Act<\/strong>&nbsp;segna un punto di svolta per l\u2019Unione Europea, ponendola come leader globale nella regolamentazione dell\u2019intelligenza artificiale. Le proibizioni stabilite mirano a prevenire&nbsp;<strong>abusi evidenti<\/strong>, come la manipolazione occulta, la sorveglianza indiscriminata e la discriminazione algoritmica. Tuttavia, questa strategia normativa solleva anche interrogativi critici: fino a che punto una regolamentazione sempre pi\u00f9 stringente favorisce lo sviluppo di un\u2019AI etica e sicura, e quando invece rischia di soffocare l\u2019innovazione?<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>La necessit\u00e0 di norme chiare e vincolanti<\/strong><\/h3>\n\n\n\n<p>L\u2019intelligenza artificiale ha il potenziale di trasformare la societ\u00e0, ma pu\u00f2 anche amplificare pregiudizi, violare la privacy e minacciare i diritti fondamentali. L\u2019AI Act risponde proprio a queste preoccupazioni, imponendo&nbsp;<strong>limiti chiari e obblighi precisi<\/strong>&nbsp;agli sviluppatori e agli utilizzatori di AI. Senza una normativa solida, il rischio \u00e8 quello di un&nbsp;<strong>far west tecnologico<\/strong>, dove le grandi aziende possono operare senza vincoli etici, mettendo a rischio la sicurezza delle persone. La regolamentazione, quindi, \u00e8&nbsp;<strong>indispensabile per garantire trasparenza e responsabilit\u00e0<\/strong>&nbsp;nell\u2019uso di queste tecnologie.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Il rischio della sovraregolamentazione<\/strong><\/h3>\n\n\n\n<p>D\u2019altro canto, l\u2019eccessiva regolamentazione pu\u00f2 avere&nbsp;<strong>effetti collaterali negativi<\/strong>. Imporre vincoli troppo rigidi potrebbe:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Rallentare l\u2019innovazione<\/strong>, creando ostacoli burocratici per startup e aziende europee, che potrebbero trovarsi in svantaggio rispetto ai competitor di USA e Cina, dove la regolamentazione \u00e8 meno stringente.<\/li>\n\n\n\n<li><strong>Scoraggiare investimenti e ricerca<\/strong>, poich\u00e9 gli sviluppatori potrebbero preferire operare in paesi con meno restrizioni.<\/li>\n\n\n\n<li><strong>Creare incertezze interpretative<\/strong>, costringendo le aziende a navigare in un panorama normativo complesso e soggetto a continue revisioni.<\/li>\n<\/ul>\n\n\n\n<p>L\u2019UE deve quindi trovare&nbsp;<strong>un equilibrio tra protezione dei diritti e libert\u00e0 di innovazione<\/strong>, evitando che la regolamentazione diventi un freno anzich\u00e9 una guida per lo sviluppo tecnologico.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Ulteriori chiarimenti e il futuro dell\u2019AI Act<\/strong><\/h3>\n\n\n\n<p>Le&nbsp;<strong>linee guida della Commissione<\/strong>&nbsp;cercano di chiarire le norme, ma resta il rischio che l\u2019AI Act&nbsp;<strong>debba essere continuamente aggiornato<\/strong>&nbsp;per adattarsi a nuove tecnologie. Il rapido sviluppo dell\u2019AI richiede&nbsp;<strong>un approccio dinamico<\/strong>, con normative capaci di evolversi senza diventare obsolete o troppo restrittive.<\/p>\n\n\n\n<p>In definitiva, l\u2019AI Act \u00e8 un primo passo importante, ma la sua efficacia dipender\u00e0&nbsp;<strong>da come verr\u00e0 applicato e aggiornato nel tempo<\/strong>. Se l\u2019UE riuscir\u00e0 a combinare regolamentazione e incentivi all\u2019innovazione, potr\u00e0 guidare il mondo verso un&nbsp;<strong>uso responsabile e sicuro dell\u2019intelligenza artificiale<\/strong>, senza soffocare il progresso tecnologico.<\/p>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Introduzione Con l\u2019entrata in vigore dell\u2019AI Act, l\u2019Unione Europea si pone all\u2019avanguardia nella regolamentazione dell\u2019intelligenza artificiale, introducendo un sistema basato sul&nbsp;rischio. Questo approccio distingue le AI in quattro categorie:&nbsp;rischio inaccettabile (vietate), alto rischio (regolamentate), rischio limitato (trasparenti) e rischio minimo (non regolamentate). Al vertice di questa classificazione si trovano le pratiche&nbsp;espressamente vietate&nbsp;dall\u2019Articolo 5 dell\u2019AI Act, [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":7613,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[44],"tags":[],"class_list":["post-7606","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-diritto-rovescio"],"yoast_head":"<!-- This site is optimized with the Yoast SEO Premium plugin v23.3 (Yoast SEO v25.6) - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>AI Act: Le Pratiche Vietate dell&#039;Intelligenza Artificiale e le Nuove Regole UE per un&#039;AI Etica - PB Consulting<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-le-pratiche-vietate-dellintelligenza-artificiale-e-le-nuove-regole-ue-per-unai-etica\/\" \/>\n<meta property=\"og:locale\" content=\"en_US\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"AI Act: Le Pratiche Vietate dell&#039;Intelligenza Artificiale e le Nuove Regole UE per un&#039;AI Etica\" \/>\n<meta property=\"og:description\" content=\"Introduzione Con l\u2019entrata in vigore dell\u2019AI Act, l\u2019Unione Europea si pone all\u2019avanguardia nella regolamentazione dell\u2019intelligenza artificiale, introducendo un sistema basato sul&nbsp;rischio. Questo approccio distingue le AI in quattro categorie:&nbsp;rischio inaccettabile (vietate), alto rischio (regolamentate), rischio limitato (trasparenti) e rischio minimo (non regolamentate). Al vertice di questa classificazione si trovano le pratiche&nbsp;espressamente vietate&nbsp;dall\u2019Articolo 5 dell\u2019AI Act, [&hellip;]\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-le-pratiche-vietate-dellintelligenza-artificiale-e-le-nuove-regole-ue-per-unai-etica\/\" \/>\n<meta property=\"og:site_name\" content=\"PB Consulting\" \/>\n<meta property=\"article:author\" content=\"https:\/\/www.facebook.com\/alberto.bozzo.9\" \/>\n<meta property=\"article:published_time\" content=\"2025-02-05T10:28:16+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2025-02-06T09:25:43+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2025\/02\/qih7GAaITluZM4l_8FyFjw.webp\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"1024\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/webp\" \/>\n<meta name=\"author\" content=\"Alberto Bozzo\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Alberto Bozzo\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"10 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-le-pratiche-vietate-dellintelligenza-artificiale-e-le-nuove-regole-ue-per-unai-etica\/\",\"url\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-le-pratiche-vietate-dellintelligenza-artificiale-e-le-nuove-regole-ue-per-unai-etica\/\",\"name\":\"AI Act: Le Pratiche Vietate dell'Intelligenza Artificiale e le Nuove Regole UE per un'AI Etica - PB Consulting\",\"isPartOf\":{\"@id\":\"https:\/\/www.consultingpb.com\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-le-pratiche-vietate-dellintelligenza-artificiale-e-le-nuove-regole-ue-per-unai-etica\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-le-pratiche-vietate-dellintelligenza-artificiale-e-le-nuove-regole-ue-per-unai-etica\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2025\/02\/qih7GAaITluZM4l_8FyFjw.webp\",\"datePublished\":\"2025-02-05T10:28:16+00:00\",\"dateModified\":\"2025-02-06T09:25:43+00:00\",\"author\":{\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50\"},\"breadcrumb\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-le-pratiche-vietate-dellintelligenza-artificiale-e-le-nuove-regole-ue-per-unai-etica\/#breadcrumb\"},\"inLanguage\":\"en-US\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-le-pratiche-vietate-dellintelligenza-artificiale-e-le-nuove-regole-ue-per-unai-etica\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-le-pratiche-vietate-dellintelligenza-artificiale-e-le-nuove-regole-ue-per-unai-etica\/#primaryimage\",\"url\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2025\/02\/qih7GAaITluZM4l_8FyFjw.webp\",\"contentUrl\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2025\/02\/qih7GAaITluZM4l_8FyFjw.webp\",\"width\":1024,\"height\":1024},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-le-pratiche-vietate-dellintelligenza-artificiale-e-le-nuove-regole-ue-per-unai-etica\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/www.consultingpb.com\/en\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"AI Act: Le Pratiche Vietate dell&#8217;Intelligenza Artificiale e le Nuove Regole UE per un&#8217;AI Etica\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/www.consultingpb.com\/#website\",\"url\":\"https:\/\/www.consultingpb.com\/\",\"name\":\"PB Consulting\",\"description\":\"\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/www.consultingpb.com\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"en-US\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50\",\"name\":\"Alberto Bozzo\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g\",\"caption\":\"Alberto Bozzo\"},\"sameAs\":[\"https:\/\/www.consultingpb.com\/\",\"https:\/\/www.facebook.com\/alberto.bozzo.9\",\"https:\/\/www.instagram.com\/ab_dirittorovescio\/\",\"https:\/\/www.linkedin.com\/in\/alberto-bozzo-57982b63\/\"],\"url\":\"https:\/\/www.consultingpb.com\/en\/blog\/author\/alberto\/\"}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"AI Act: Le Pratiche Vietate dell'Intelligenza Artificiale e le Nuove Regole UE per un'AI Etica - PB Consulting","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-le-pratiche-vietate-dellintelligenza-artificiale-e-le-nuove-regole-ue-per-unai-etica\/","og_locale":"en_US","og_type":"article","og_title":"AI Act: Le Pratiche Vietate dell'Intelligenza Artificiale e le Nuove Regole UE per un'AI Etica","og_description":"Introduzione Con l\u2019entrata in vigore dell\u2019AI Act, l\u2019Unione Europea si pone all\u2019avanguardia nella regolamentazione dell\u2019intelligenza artificiale, introducendo un sistema basato sul&nbsp;rischio. Questo approccio distingue le AI in quattro categorie:&nbsp;rischio inaccettabile (vietate), alto rischio (regolamentate), rischio limitato (trasparenti) e rischio minimo (non regolamentate). Al vertice di questa classificazione si trovano le pratiche&nbsp;espressamente vietate&nbsp;dall\u2019Articolo 5 dell\u2019AI Act, [&hellip;]","og_url":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-le-pratiche-vietate-dellintelligenza-artificiale-e-le-nuove-regole-ue-per-unai-etica\/","og_site_name":"PB Consulting","article_author":"https:\/\/www.facebook.com\/alberto.bozzo.9","article_published_time":"2025-02-05T10:28:16+00:00","article_modified_time":"2025-02-06T09:25:43+00:00","og_image":[{"width":1024,"height":1024,"url":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2025\/02\/qih7GAaITluZM4l_8FyFjw.webp","type":"image\/webp"}],"author":"Alberto Bozzo","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Alberto Bozzo","Est. reading time":"10 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-le-pratiche-vietate-dellintelligenza-artificiale-e-le-nuove-regole-ue-per-unai-etica\/","url":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-le-pratiche-vietate-dellintelligenza-artificiale-e-le-nuove-regole-ue-per-unai-etica\/","name":"AI Act: Le Pratiche Vietate dell'Intelligenza Artificiale e le Nuove Regole UE per un'AI Etica - PB Consulting","isPartOf":{"@id":"https:\/\/www.consultingpb.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-le-pratiche-vietate-dellintelligenza-artificiale-e-le-nuove-regole-ue-per-unai-etica\/#primaryimage"},"image":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-le-pratiche-vietate-dellintelligenza-artificiale-e-le-nuove-regole-ue-per-unai-etica\/#primaryimage"},"thumbnailUrl":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2025\/02\/qih7GAaITluZM4l_8FyFjw.webp","datePublished":"2025-02-05T10:28:16+00:00","dateModified":"2025-02-06T09:25:43+00:00","author":{"@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50"},"breadcrumb":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-le-pratiche-vietate-dellintelligenza-artificiale-e-le-nuove-regole-ue-per-unai-etica\/#breadcrumb"},"inLanguage":"en-US","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-le-pratiche-vietate-dellintelligenza-artificiale-e-le-nuove-regole-ue-per-unai-etica\/"]}]},{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-le-pratiche-vietate-dellintelligenza-artificiale-e-le-nuove-regole-ue-per-unai-etica\/#primaryimage","url":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2025\/02\/qih7GAaITluZM4l_8FyFjw.webp","contentUrl":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2025\/02\/qih7GAaITluZM4l_8FyFjw.webp","width":1024,"height":1024},{"@type":"BreadcrumbList","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/ai-act-le-pratiche-vietate-dellintelligenza-artificiale-e-le-nuove-regole-ue-per-unai-etica\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/www.consultingpb.com\/en\/"},{"@type":"ListItem","position":2,"name":"AI Act: Le Pratiche Vietate dell&#8217;Intelligenza Artificiale e le Nuove Regole UE per un&#8217;AI Etica"}]},{"@type":"WebSite","@id":"https:\/\/www.consultingpb.com\/#website","url":"https:\/\/www.consultingpb.com\/","name":"PB Consulting","description":"","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.consultingpb.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"en-US"},{"@type":"Person","@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50","name":"Alberto Bozzo","image":{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g","caption":"Alberto Bozzo"},"sameAs":["https:\/\/www.consultingpb.com\/","https:\/\/www.facebook.com\/alberto.bozzo.9","https:\/\/www.instagram.com\/ab_dirittorovescio\/","https:\/\/www.linkedin.com\/in\/alberto-bozzo-57982b63\/"],"url":"https:\/\/www.consultingpb.com\/en\/blog\/author\/alberto\/"}]}},"_links":{"self":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/7606","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/comments?post=7606"}],"version-history":[{"count":2,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/7606\/revisions"}],"predecessor-version":[{"id":7612,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/7606\/revisions\/7612"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/media\/7613"}],"wp:attachment":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/media?parent=7606"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/categories?post=7606"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/tags?post=7606"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}