{"id":7797,"date":"2025-03-22T10:39:43","date_gmt":"2025-03-22T10:39:43","guid":{"rendered":"https:\/\/www.consultingpb.com\/?p=7797"},"modified":"2025-03-22T10:44:58","modified_gmt":"2025-03-22T10:44:58","slug":"7797","status":"publish","type":"post","link":"https:\/\/www.consultingpb.com\/en\/blog\/diritto-rovescio\/7797\/","title":{"rendered":"Ddl Intelligenza Artificiale: il Senato approva tra le polemiche."},"content":{"rendered":"\n<p>L&#8217;approvazione del disegno di legge (Ddl) delega sull&#8217;<strong>Intelligenza Artificiale (IA)<\/strong> al Senato \u00e8 avvenuta in un clima tutt&#8217;altro che sereno, segnato da <strong>forti polemiche e caos in Aula<\/strong>.<\/p>\n\n\n\n<p>La seduta del 20 marzo 2025 ha visto il provvedimento incassare il via libera con 85 voti favorevoli e 42 contrari, ma questo passaggio \u00e8 stato preceduto e accompagnato dalle <strong>veementi contestazioni delle forze di opposizione<\/strong>, in particolare il <strong>Partito Democratico (Pd)<\/strong> e il <strong>Movimento 5 Stelle (M5S)<\/strong><\/p>\n\n\n\n<p> Il fulcro del dissenso si \u00e8 concentrato sulla <strong>bocciatura di un emendamento presentato dal Pd che mirava a garantire la sovranit\u00e0 dei dati dei cittadini italiani<\/strong>, prevedendo che questi potessero essere trasferiti e conservati esclusivamente su server nazionali o su tecnologie satellitari controllate dall&#8217;Italia o dall&#8217;Unione Europea<\/p>\n\n\n\n<p>Secondo quanto riportato, esponenti di spicco dell&#8217;opposizione come <strong>Francesco Boccia<\/strong>, capogruppo del Pd al Senato, il senatore <strong>Antonio Nicita<\/strong> (Pd), il segretario di Italia Viva <strong>Matteo Renzi<\/strong>, e il capogruppo in Senato del M5S <strong>Stefano Patuanelli<\/strong> hanno <strong>accusato il Governo di attendere indicazioni da Palazzo Chigi<\/strong>, in particolare dal sottosegretario alla Presidenza del Consiglio <strong>Alfredo Mantovano<\/strong>, per assumere una posizione su temi ritenuti cruciali per il <strong>sovranismo dei dati<\/strong>. <\/p>\n\n\n\n<p>La mancata approvazione dell&#8217;emendamento del Pd ha scatenato la loro reazione, con accuse dirette al Governo di agire contro gli interessi nazionali<\/p>\n\n\n\n<p><strong>Francesco Boccia<\/strong> ha dichiarato con forza che <strong>votare contro il loro emendamento significava &#8220;votare contro gli interessi degli italiani&#8221;<\/strong>, sottolineando la necessit\u00e0 che i dati anagrafici, fiscali, sanitari e giudiziari dei cittadini fossero gestiti su infrastrutture sotto l&#8217;esclusivo controllo dello Stato italiano. <strong>Antonio Nicita<\/strong> ha rincarato la dose, accusando il Governo di &#8220;offrire uno spettacolo inquietante sulla IA&#8221; e di <strong>&#8220;appaltare la sicurezza nazionale a stranieri&#8221;<\/strong> non garantendo la protezione dei dati attraverso infrastrutture nazionali o europee . Anche <strong>Stefano Patuanelli<\/strong> ha espresso la sua indignazione, parlando di una <strong>&#8220;svendita della sicurezza nazionale in corso&#8221;<\/strong> a seguito del parere contrario sull&#8217;emendamento relativo ai dati sensibili.<\/p>\n\n\n\n<p>Le tensioni in Aula sono degenerate ulteriormente quando <strong>Matteo Renzi<\/strong> ha insinuato che il sottosegretario <strong>Alessio Butti<\/strong> avesse ricevuto una <strong>telefonata da Palazzo Chigi<\/strong> con istruzioni sul da farsi, specificando che la presunta chiamata provenisse da ambienti legati ai servizi segreti. <strong>Alessio Butti<\/strong> ha <strong>categoricamente respinto queste accuse<\/strong>, definendole &#8220;completamente infondate&#8221; e assicurando che il Governo ha sempre operato con la massima trasparenza e nell&#8217;esclusivo interesse del Paese, soprattutto su un tema strategico come l&#8217;intelligenza artificiale e la gestione dei dati pubblici.<\/p>\n\n\n\n<p>Nonostante le accese polemiche e il clima di forte contestazione, il <strong>Ddl sull&#8217;IA ha ottenuto l&#8217;approvazione del Senato<\/strong> e, come annunciato, ora <strong>passer\u00e0 all&#8217;esame della Camera dei Deputati<\/strong> per il prosieguo del suo iter legislativo. Resta evidente la profonda spaccatura politica sul tema della gestione dei dati legati all&#8217;intelligenza artificiale, un aspetto che continuer\u00e0 a essere centrale nel dibattito parlamentare.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-ecco-cosa-prevede-la-legge-italiana-sull-iau\">Ecco cosa prevede la legge italiana sull&#8217;IA\u00f9<\/h3>\n\n\n\n<div data-wp-interactive=\"core\/file\" class=\"wp-block-file\"><object data-wp-bind--hidden=\"!state.hasPdfPreview\" hidden class=\"wp-block-file__embed\" data=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2025\/03\/messddl-1146__442084.pdf\" type=\"application\/pdf\" style=\"width:100%;height:600px\" aria-label=\"Embed of messddl 1146__442084.\"><\/object><a id=\"wp-block-file--media-4e1d162b-d41b-4058-b083-2a2c3a5321ef\" href=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2025\/03\/messddl-1146__442084.pdf\">messddl 1146__442084<\/a><a href=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2025\/03\/messddl-1146__442084.pdf\" class=\"wp-block-file__button wp-element-button\" download aria-describedby=\"wp-block-file--media-4e1d162b-d41b-4058-b083-2a2c3a5321ef\">Download<\/a><\/div>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-capo-i-principi-e-finalita\">CAPO I \u2013 PRINCIPI E FINALIT\u00c0<\/h3>\n\n\n\n<p><strong>Art. 1 \u2013 Finalit\u00e0 e ambito di applicazione<\/strong><br><\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p>1. La presente legge reca princ\u00ecpi in materia di ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e di mo- delli di intelligenza artificiale. Promuove un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica, dell\u2019in- telligenza artificiale, volto a coglierne le opportunit\u00e0. Garantisce la vigilanza sui rischi economici e sociali e sull\u2019impatto sui diritti fondamentali dell\u2019intelligenza artificiale.<\/p>\n\n\n\n<p>2. Le disposizioni della presente legge si interpretano e si applicano conformemente al regolamento (UE) 2024\/1689 del Parla-mento europeo e del Consiglio, del 13 giugno 2024.<\/p>\n\n\n\n<p>L&#8217; articolo della legge si propone di delineare una cornice normativa completa che funga da fondamento per lo sviluppo e l\u2019utilizzo dell\u2019intelligenza artificiale. <\/p>\n<\/blockquote>\n\n\n\n<p>In questo contesto, la norma stabilisce gli obiettivi cardine che devono guidare ogni fase, dalla ricerca e sperimentazione fino all\u2019adozione e applicazione concreta dei sistemi e dei modelli di IA, ponendo l\u2019accento su un approccio che metta <strong>l\u2019essere umano al centro<\/strong> delle proprie strategie. <\/p>\n\n\n\n<p>La legge, infatti, non si limita a riconoscere il potenziale innovativo di queste tecnologie, ma intende anche promuovere un uso etico e responsabile, assicurando che ogni sviluppo sia improntato alla trasparenza e alla correttezza. <\/p>\n\n\n\n<p>L\u2019obiettivo \u00e8 quello di garantire che il progresso tecnologico non si traduca in un mero avanzamento tecnico, ma che diventi strumento per migliorare la vita delle persone, tutelando allo stesso tempo i diritti fondamentali e i valori sociali. <\/p>\n\n\n\n<p>A tal fine, viene istituito <strong>un sistema di vigilanza<\/strong> volto a monitorare e prevenire eventuali rischi economici e sociali, nonch\u00e9 impatti negativi sui diritti individuali, in un\u2019ottica di protezione e rispetto verso ogni cittadino. <\/p>\n\n\n\n<p>Tale vigilanza si pone in un quadro di riferimento europeo, in quanto il contenuto del primo articol<strong>o si allinea strettamente alle disposizioni previste dal regolamento (UE) 2024\/1689<\/strong>, assicurando cos\u00ec che le pratiche nazionali si integrino in maniera coerente con gli standard comuni e le migliori prassi internazionali. In sostanza, questa disposizione normativa si configura come il pilastro su cui poggia l\u2019intero sistema regolatorio, mirando a creare un ambiente in cui l\u2019innovazione tecnologica si traduca in opportunit\u00e0 reali, con un\u2019attenzione costante alle implicazioni etiche e sociali, garantendo un equilibrio tra progresso e tutela dei diritti fondamentali.<\/p>\n\n\n\n<p><strong>Art. 2 \u2013 Definizioni<\/strong><br>Questo articolo si concentra sulla precisa definizione dei termini chiave:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Sistema di intelligenza artificiale:<\/strong>&nbsp;conforme a quanto indicato nel regolamento (UE) 2024\/1689.<\/li>\n\n\n\n<li><strong>Dato:<\/strong>&nbsp;qualsiasi rappresentazione digitale di fatti o informazioni, inclusi supporti audiovisivi.<\/li>\n\n\n\n<li><strong>Modelli di intelligenza artificiale:<\/strong>&nbsp;definiti sempre in base al regolamento europeo.<br>Per le altre definizioni, si rimanda alle disposizioni del regolamento (UE) 2024\/1689<\/li>\n<\/ul>\n\n\n\n<p>ricordiamo che <\/p>\n\n\n\n<p>Il sistema di intelligenza artificiale, cos\u00ec come definito dal regolamento (UE) 2024\/1689, \u00e8 concepito come l\u2019insieme di tecnologie, algoritmi e processi informatici che consentono a un sistema di acquisire, elaborare e interpretare dati in modo autonomo o semiautonomo, simulando capacit\u00e0 tipiche dell\u2019intelligenza umana. <\/p>\n\n\n\n<p>In altre parole, questo sistema \u00e8 in grado di apprendere, ragionare e prendere decisioni attraverso l\u2019uso di metodologie avanzate come il machine learning e il deep learning, e di adattarsi dinamicamente in funzione delle informazioni acquisite. <\/p>\n\n\n\n<p>Tale definizione mira a garantire che il funzionamento del sistema sia improntato a principi di trasparenza, sicurezza e rispetto dei diritti fondamentali, in un contesto normativo che favorisce la responsabilit\u00e0 e il controllo umano, affinch\u00e9 l\u2019evoluzione tecnologica avvenga in modo etico e sostenibile nel quadro delle normative europee.<\/p>\n\n\n\n<p>La definizione contenuta nel regolamento risulta sostanzialmente corretta se considerata nel contesto degli obiettivi normativi e tecnici che intende perseguire. <\/p>\n\n\n\n<p>Essa sintetizza in maniera efficace l\u2019idea di un sistema di intelligenza artificiale come un insieme integrato di tecnologie, algoritmi e processi informatici finalizzati all\u2019apprendimento, all\u2019elaborazione e all\u2019interpretazione dei dati, mantenendo un focus sui principi di trasparenza, sicurezza e controllo umano. <\/p>\n\n\n\n<p>Tuttavia, sarebbe stato possibile esprimere lo stesso concetto in maniera diversa, magari accentuando ulteriormente alcuni aspetti specifici come il ruolo dell\u2019interazione tra l\u2019algoritmo e l\u2019operatore umano o evidenziando con maggiore chiarezza le modalit\u00e0 operative per garantire la responsabilit\u00e0 e l\u2019etica nell\u2019uso della tecnologia. Una formulazione alternativa avrebbe reso pi\u00f9 espliciti i criteri per la valutazione della trasparenza o per il monitoraggio dei rischi, con l\u2019obiettivo di rendere la definizione pi\u00f9 accessibile anche a un pubblico meno tecnico, pur mantenendo il rigore richiesto a un documento normativo. <\/p>\n\n\n\n<p>In sostanza, la definizione attuale appare adeguata e funzionale agli scopi del regolamento, anche se, in funzione degli interessi di chiarezza e di comunicazione, si poteva optare per una formulazione leggermente diversa che enfatizzasse ulteriormente determinati aspetti senza compromettere la precisione tecnica e l\u2019aderenza agli standard europei.<br><br><strong>Art. 3 \u2013 Principi generali<\/strong><br><\/p>\n\n\n\n<p> L&#8217;articolo in esame si configura come un fondamento normativo che definisce in maniera dettagliata i criteri imprescindibili per lo sviluppo e l\u2019utilizzo di sistemi e modelli di intelligenza artificiale a finalit\u00e0 generali. <\/p>\n\n\n\n<p>Il testo pone al centro della regolamentazione il rispetto incondizionato dei diritti fondamentali, ponendo l\u2019accento sulla necessit\u00e0 di garantire che ogni applicazione tecnologica non comprometta le libert\u00e0 individuali e i valori umani essenziali.<\/p>\n\n\n\n<p> In questo contesto, la <strong>trasparenza<\/strong> assume un ruolo strategico, affinch\u00e9 tutte le operazioni e i processi decisionali effettuati da tali sistemi siano chiaramente comprensibili e accessibili non solo agli esperti del settore, ma anche agli utenti finali e agli enti preposti alla vigilanza. <\/p>\n\n\n\n<p>Allo stesso tempo, il principio di <strong>proporzionalit\u00e0<\/strong> \u00e8 inteso a garantire che l\u2019adozione di tecnologie avanzate sia sempre commisurata alle esigenze reali e ai rischi connessi, evitando sovraccarichi normativi o applicazioni eccessivamente intrusive che potrebbero penalizzare la libert\u00e0 di scelta o la privacy dei cittadini. <\/p>\n\n\n\n<p>La <strong>sicurezza<\/strong>, intesa sia in termini tecnologici che operativi, viene considerata fondamentale per tutelare gli utenti da potenziali vulnerabilit\u00e0 o attacchi informatici, assicurando cos\u00ec un ambiente in cui i dati e le infrastrutture digitali siano protetti in modo adeguato. <\/p>\n\n\n\n<p>Il concetto di <strong>protezione<\/strong> dei dati personali \u00e8 ulteriormente rafforzato, sottolineando l\u2019importanza di adottare metodologie e strumenti che garantiscano il rispetto della riservatezza e dell\u2019integrit\u00e0 delle informazioni sensibili, in linea con i pi\u00f9 severi standard di sicurezza previsti a livello nazionale ed europeo. <\/p>\n\n\n\n<p><strong>Il divieto di discriminazione<\/strong>, infine, viene posto come un imperativo etico e giuridico, affinch\u00e9 l\u2019utilizzo di sistemi di intelligenza artificiale non si traduca in trattamenti ingiustificati o in esclusioni ingiustificate di determinati gruppi sociali, ma contribuisca invece a promuovere l\u2019uguaglianza e l\u2019equit\u00e0 in ogni ambito applicativo. <\/p>\n\n\n\n<p>Particolare rilievo viene attribuito al <strong>mantenimento dell\u2019autonomia decisionale umana<\/strong>, che rappresenta il baluardo contro il rischio di una delega completa e incontrollata dei processi decisionali a sistemi automatizzati, garantendo cos\u00ec che la responsabilit\u00e0 finale rimanga sempre nelle mani degli operatori umani. <\/p>\n\n\n\n<p>Inoltre, l\u2019articolo prevede <strong>l\u2019implementazione di sistemi di sorveglianza<\/strong> capaci di monitorare in tempo reale il funzionamento dei modelli di intelligenza artificiale e di intervenire prontamente in caso di errori o situazioni di rischio, assicurando cos\u00ec un controllo umano costante e una capacit\u00e0 di reazione immediata che prevenga il verificarsi di danni irreparabili o di violazioni dei diritti fondamentali. <\/p>\n\n\n\n<p>In sintesi, la norma non solo definisce un quadro di riferimento tecnico e normativo per l\u2019impiego dell\u2019intelligenza artificiale, ma intende anche stabilire una cultura della responsabilit\u00e0 che metta al centro la tutela dei cittadini e il rispetto dei valori etici, assicurando che il progresso tecnologico sia sempre accompagnato da un\u2019adeguata attenzione alle implicazioni sociali e umane.<\/p>\n\n\n\n<p> il <strong>GDPR<\/strong> incorpora numerosi principi fondamentali che troviamo anche nel contesto dell\u2019intelligenza artificiale, in particolare per quanto riguarda la<strong> protezione dei dati personali,<\/strong> la <strong>trasparenza<\/strong> nel trattamento e il rispetto dei diritti degli interessati. <\/p>\n\n\n\n<p>Tuttavia, la normativa specifica sull\u2019IA amplia l\u2019ambito di applicazione e introduce <strong>ulteriori elementi di tutela <\/strong>che non sono esplicitamente approfonditi dal GDPR. <\/p>\n\n\n\n<p>Il <strong>GDPR<\/strong>, infatti, si concentra principalmente sui principi del trattamento dei dati, come la liceit\u00e0, la limitazione della finalit\u00e0, la minimizzazione dei dati, l\u2019accuratezza, la limitazione della conservazione e l\u2019integrit\u00e0 e la riservatezza, e prevede disposizioni riguardanti il diritto a non essere sottoposti a decisioni automatizzate senza adeguate garanzie, in particolare per quanto concerne l\u2019autonomia decisionale in contesti specifici. <\/p>\n\n\n\n<p><strong>La normativa sull\u2019intelligenza artificiale<\/strong>, invece, si propone di garantire non solo la protezione dei dati, ma anche un utilizzo responsabile e sicuro delle tecnologie, estendendo il concetto di trasparenza a tutte le fasi di sviluppo e applicazione dei sistemi di IA e richiedendo un controllo umano costante per intervenire tempestivamente in caso di errori o rischi. <\/p>\n\n\n\n<p>Inoltre, essa enfatizza il <strong>principio di proporzionalit\u00e0 <\/strong>nel valutare l\u2019impatto di tali tecnologie sul tessuto economico e sociale e introduce misure specifiche contro <strong>ogni forma di discriminazione, anche oltre il mero ambito del trattamento dei dati.<\/strong> <\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-art-4-principi-in-materia-di-informazione-e-di-riservatezza-dei-dati-personali\"><br><strong>Art. 4 \u2013 Principi in materia di informazione e di riservatezza dei dati personali<\/strong><\/h3>\n\n\n\n<p>Questo articolo disciplina l\u2019uso dell\u2019IA nel settore dell\u2019informazione, assicurando che non si vada a compromettere la libert\u00e0 e il pluralismo dei mezzi di comunicazione. <\/p>\n\n\n\n<p>Viene garantito il trattamento lecito e trasparente dei dati personali, con un\u2019informazione chiara e comprensibile che permetta all\u2019utente di conoscere i rischi e di opporsi al trattamento dei propri dati. Particolare attenzione viene dedicata alla protezione dei minori, richiedendo il consenso dei responsabili della cura per soggetti al di sotto dei quattordici anni.<\/p>\n\n\n\n<p>Questo articolo assume un ruolo centrale nel garantire che l\u2019utilizzo dell\u2019intelligenza artificiale nel settore dell\u2019informazione avvenga nel pieno rispetto dei diritti fondamentali e in un\u2019ottica di trasparenza e responsabilit\u00e0. <\/p>\n\n\n\n<p>In un contesto in cui la tecnologia si integra sempre pi\u00f9 con i processi comunicativi, la norma stabilisce che <strong>l\u2019impiego di sistemi intelligenti non debba compromettere la libert\u00e0 e il pluralismo dei mezzi di comunicazione<\/strong>, tutelando cos\u00ec la diversit\u00e0 delle opinioni e la trasparenza nell\u2019accesso all\u2019informazione. <\/p>\n\n\n\n<p>Il testo impone che<strong> ogni trattamento di dati personali debba essere effettuato in modo lecito e trasparente<\/strong>, garantendo che le informazioni fornite agli utenti siano chiare, comprensibili e sufficienti a renderli consapevoli dei rischi connessi, in modo da permettere loro di opporsi al trattamento dei propri dati se lo desiderano. <\/p>\n\n\n\n<p><strong>Questa chiarezza informativa<\/strong> diventa fondamentale per costruire un rapporto di fiducia tra i cittadini e le istituzioni o gli operatori privati che utilizzano l\u2019intelligenza artificiale per scopi informativi. <\/p>\n\n\n\n<p>Particolare rilievo viene attribuito<strong> alla protezione dei minori, <\/strong>categoria che viene riconosciuta come particolarmente vulnerabile nell\u2019era digitale; pertanto, il trattamento dei dati di soggetti al di sotto dei quattordici anni richiede il preventivo consenso dei responsabili della cura, rappresentando un ulteriore livello di salvaguardia che mira a prevenire possibili abusi e a garantire la sicurezza dei pi\u00f9 giovani.<\/p>\n\n\n\n<p>In sostanza, questo articolo non solo si conforma agli standard internazionali in materia di protezione dei dati, ma estende tali principi in maniera specifica al contesto dell\u2019informazione digitale, creando un quadro normativo che promuove l\u2019uso responsabile e sicuro delle tecnologie di intelligenza artificiale, salvaguardando al contempo i valori democratici e i diritti individuali.<\/p>\n\n\n\n<p>Bisogna tuttavia evidenziare che  in Italia la libert\u00e0 dei mezzi di comunicazione e il pluralismo dell\u2019informazione sono argomenti che continuano a essere al centro del dibattito sia a livello nazionale che internazionale. <\/p>\n\n\n\n<p>Le classifiche internazionali, come il World Press Freedom Index di Reporters Without Borders e le valutazioni di Freedom House, indicano che il panorama mediatico italiano si colloca generalmente in una posizione intermedia rispetto ad altri paesi europei. <\/p>\n\n\n\n<p>Questi indici evidenziano alcune criticit\u00e0, in particolare legate alla concentrazione della propriet\u00e0 dei mezzi, alle pressioni politiche e commerciali e alla trasparenza nella gestione e nella diffusione delle informazioni. <\/p>\n\n\n\n<p>In pratica, se da un lato l\u2019Italia presenta un ambiente informativo dinamico e con una tradizione consolidata nel giornalismo, dall\u2019altro permangono preoccupazioni circa il grado di pluralismo effettivo: infatti, una significativa concentrazione mediatica pu\u00f2 limitare la diversit\u00e0 delle opinioni e rendere pi\u00f9 difficoltoso l\u2019accesso a fonti alternative di informazione. <\/p>\n\n\n\n<p>Le valutazioni internazionali sottolineano, ad esempio, che, nonostante vi siano segnali positivi relativi alla libert\u00e0 di stampa, l\u2019impatto delle pressioni economiche e politiche tende a influire sulla qualit\u00e0 e sull\u2019indipendenza dei contenuti, elemento che pu\u00f2 condizionare il pluralismo dei media. <\/p>\n\n\n\n<p>Queste analisi evidenziano come le dinamiche italiane, seppur non estremamente negative, richiedano un continuo impegno da parte delle istituzioni e della societ\u00e0 civile per rafforzare un ecosistema mediatico in cui la diversit\u00e0 delle fonti e la trasparenza siano garantite, affinch\u00e9 il diritto all\u2019informazione possa essere pienamente esercitato in un contesto realmente libero e pluralistico.<br><br><strong>Art. 5 \u2013 Principi in materia di sviluppo economico<\/strong><br><\/p>\n\n\n\n<p>Questo articolo si propone di definire una strategia di lungo periodo in cui lo Stato e le autorit\u00e0 pubbliche abbiano il compito di promuovere e sostenere lo sviluppo e l\u2019adozione dell\u2019intelligenza artificiale in ambito produttivo, ponendo l\u2019accento sulla necessit\u00e0 di rafforzare la competitivit\u00e0 del sistema economico nazionale e di garantire la sovranit\u00e0 tecnologica. <\/p>\n\n\n\n<p>La norma intende creare un ambiente favorevole all\u2019innovazione, in cui le politiche pubbliche siano orientate a incentivare investimenti mirati e a facilitare l\u2019accesso a risorse fondamentali, come dati di alta qualit\u00e0, infrastrutture digitali avanzate e competenze specialistiche. <\/p>\n\n\n\n<p>In questo contesto, il ruolo dello Stato non si limita a una funzione di regolamentazione, ma si esplica anche in quella di catalizzatore, promuovendo la formazione di partenariati strategici e sinergie tra imprese, centri di ricerca e istituzioni accademiche. <\/p>\n\n\n\n<p>Tale collaborazione intersettoriale \u00e8 considerata essenziale per favorire il trasferimento di conoscenze e tecnologie, accelerare la ricerca e la sperimentazione, e creare un mercato dell\u2019IA che sia dinamico, innovativo e concorrenziale. <\/p>\n\n\n\n<p>La realizzazione di questo obiettivo pu\u00f2 avvenire attraverso una strategia integrata e multilivello che coinvolga diverse misure a supporto dello sviluppo e dell\u2019adozione dell\u2019intelligenza artificiale nel tessuto produttivo nazionale. <\/p>\n\n\n\n<p>Un ambiente normativo stabile e ben delineato costituisce la base per attrarre investimenti e stimolare l\u2019interesse del settore privato verso l\u2019adozione di tecnologie avanzate. Parallelamente, \u00e8 essenziale mettere in campo politiche di <strong>incentivazione economica,<\/strong> che includano agevolazioni fiscali, finanziamenti mirati e contributi pubblici destinati a progetti di ricerca e sviluppo nell\u2019ambito dell\u2019intelligenza artificiale. <\/p>\n\n\n\n<p>Tali incentivi possono favorire la nascita di <strong>startup innovative <\/strong>e sostenere le imprese gi\u00e0 esistenti nella transizione verso processi produttivi pi\u00f9 digitalizzati e competitivi. <\/p>\n\n\n\n<p>Un ulteriore elemento chiave consiste nella promozione di <strong>partenariati strategici e collaborazioni intersettoriali.<\/strong> La sinergia tra universit\u00e0, centri di ricerca, enti pubblici e imprese private \u00e8 fondamentale per creare un ecosistema dinamico in cui le conoscenze e le risorse vengano condivise e valorizzate. La costituzione di<strong> poli tecnologici e cluster industriali<\/strong> specializzati pu\u00f2 infatti favorire lo scambio di competenze e l\u2019avvio di progetti congiunti, accelerando il trasferimento tecnologico e rafforzando la competitivit\u00e0 complessiva del sistema economico nazionale.<\/p>\n\n\n\n<p> Un ruolo cruciale spetta anche all\u2019accesso ai dati di alta qualit\u00e0, considerati il motore su cui si fondano gli algoritmi e i modelli di intelligenza artificiale. Lo Stato pu\u00f2 agevolare questo processo attraverso la <strong>creazione di piattaforme di condivisione dei dati e la messa a disposizione di banche dati pubbliche<\/strong>, adottando al contempo misure rigorose per garantire la privacy e la sicurezza informatica. Inoltre, investimenti significativi in infrastrutture digitali, come reti a banda larga, data center e tecnologie cloud, sono imprescindibili per permettere anche alle piccole e medie imprese di accedere alle soluzioni tecnologiche pi\u00f9 avanzate senza incontrare barriere insormontabili. <\/p>\n\n\n\n<p>A supporto di tutto ci\u00f2, \u00e8 fondamentale promuovere programmi di <strong>formazione e aggiornamento delle competenze digitali <\/strong>per il personale, cos\u00ec da garantire che il capitale umano sia adeguatamente preparato a sfruttare le potenzialit\u00e0 dell\u2019intelligenza artificiale e a guidare la trasformazione digitale nei diversi settori produttivi. <\/p>\n\n\n\n<p>Infine,<strong> lo Stato deve assumere un ruolo di facilitatore<\/strong>, intervenendo per rimuovere ostacoli burocratici e favorendo un ambiente regolamentare flessibile e adattabile all\u2019evoluzione rapida delle tecnologie. A<\/p>\n\n\n\n<p>ttraverso un approccio sinergico che combina investimenti strategici, incentivi economici, collaborazioni pubblico-private e lo sviluppo delle competenze, \u00e8 possibile non solo promuovere l\u2019adozione dell\u2019intelligenza artificiale in ambito produttivo, ma anche rafforzare la competitivit\u00e0 e la sovranit\u00e0 tecnologica del sistema economico nazionale.<br><\/p>\n\n\n\n<p> L\u2019obiettivo di garantire<strong> la sovranit\u00e0 tecnologica<\/strong> si traduce nell\u2019impegno a sviluppare soluzioni e infrastrutture autonome, in grado di ridurre la dipendenza da tecnologie esterne e di posizionare il paese come protagonista nel panorama internazionale dell\u2019innovazione digitale. <\/p>\n\n\n\n<p>L\u2019accesso agevolato a <strong>dati di alta qualit\u00e0 <\/strong>diventa, in questo quadro, un elemento imprescindibile, poich\u00e9 tali dati rappresentano la base su cui si fondano algoritmi e sistemi intelligenti, permettendo alle imprese di migliorare l\u2019efficienza operativa, ottimizzare i processi produttivi e sviluppare soluzioni avanzate che possano tradursi in benefici tangibili per l\u2019intera collettivit\u00e0. <\/p>\n\n\n\n<p>In definitiva, l\u2019articolo stabilisce un modello in cui la spinta all\u2019innovazione tecnologica si integra con politiche di investimento e collaborazioni istituzionali, creando un ecosistema in cui lo sviluppo dell\u2019intelligenza artificiale diventa una leva strategica per il progresso economico, la competitivit\u00e0 internazionale e la resilienza tecnologica del sistema produttivo nazionale.<\/p>\n\n\n\n<p><strong>La sovranit\u00e0 tecnologica<\/strong> rappresenta un concetto strategico di grande rilevanza nell\u2019era digitale, in quanto implica la capacit\u00e0 di uno Stato di sviluppare, controllare e utilizzare tecnologie avanzate senza una dipendenza eccessiva da fornitori esterni. Tale approccio mira a garantire autonomia nelle scelte tecnologiche e nella gestione dei dati, elementi fondamentali per tutelare la sicurezza nazionale, l\u2019indipendenza economica e la resilienza delle infrastrutture critiche. <\/p>\n\n\n\n<p>Da un lato, perseguire la sovranit\u00e0 tecnologica significa investire in ricerca e sviluppo, promuovere collaborazioni tra istituzioni pubbliche, centri di ricerca e imprese private e creare un ecosistema innovativo che favorisca la competitivit\u00e0 a livello internazionale. <\/p>\n\n\n\n<p>Dall\u2019altro, essa comporta anche <strong>sfide considerevoli,<\/strong> come il rischio di <strong>isolamento<\/strong> se si opta per una politica troppo protezionistica, che potrebbe limitare la cooperazione e lo scambio di competenze con altri paesi. Un bilanciamento tra autonomia strategica e apertura al mercato globale appare pertanto essenziale: da un lato \u00e8 necessario <strong>proteggere i settori considerati vitali<\/strong> per la sicurezza e la sovranza tecnologica, mentre dall\u2019altro \u00e8 importante beneficiare della cooperazione internazionale e degli scambi tecnologici che favoriscono il progresso. <\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-art-6-disposizioni-in-materia-di-sicurezza-e-difesa-nazionale\"><strong>Art. 6 \u2013 Disposizioni in materia di sicurezza e difesa nazionale<\/strong><\/h3>\n\n\n\n<p>Questo articolo intende definire una cornice normativa specifica per le attivit\u00e0 di intelligenza artificiale che rientrano in ambiti considerati strategici e sensibili, come la sicurezza nazionale, la cybersicurezza e la difesa, settori per i quali esistono gi\u00e0 normative specifiche e pi\u00f9 stringenti. <\/p>\n\n\n\n<p>I settori esclusi sono quelli legati alle attivit\u00e0 che rientrano nelle finalit\u00e0 di sicurezza nazionale, cybersicurezza e difesa. In altre parole, le operazioni e gli impieghi dell\u2019intelligenza artificiale per scopi legati alla sicurezza del paese, alla protezione contro le minacce informatiche e alle attivit\u00e0 militari o di polizia sono gi\u00e0 disciplinati da normative specifiche e non rientrano nell\u2019ambito applicativo della presente legge. <\/p>\n\n\n\n<p>La norma <strong>esclude espressamente tali attivit\u00e0 <\/strong>dall\u2019applicazione del quadro generale, proprio per evitare conflitti e sovrapposizioni con regolamenti che gi\u00e0 disciplinano questi settori e per garantire che le misure di protezione siano commisurate al livello di rischio e all\u2019importanza strategica delle operazioni in questione. <\/p>\n\n\n\n<p>In Italia esistono diverse normative che gi\u00e0 regolamentano gli ambiti della sicurezza nazionale, della cybersicurezza e della difesa. Ad esempio, la legge 3 agosto 2007, n. 124 disciplina le attivit\u00e0 finalizzate alla sicurezza nazionale, definendo i compiti e le modalit\u00e0 operative degli organismi preposti a questo ambito. <\/p>\n\n\n\n<p>Un altro riferimento normativo fondamentale \u00e8 rappresentato dal decreto-legge 14 giugno 2021, n. 82, convertito, con modificazioni, dalla legge 4 agosto 2021, n. 109, che introduce specifiche misure in materia di cybersicurezza e resilienza, stabilendo un quadro normativo per proteggere le infrastrutture critiche e contrastare le minacce informatiche. Inoltre, la legge 16 marzo 2006, n. 146, affronta vari aspetti legati alla sicurezza nazionale, inclusi reati che possono compromettere l\u2019integrit\u00e0 delle attivit\u00e0 difensive, e integra le disposizioni per le operazioni svolte dalle Forze armate e dalle Forze di polizia. <\/p>\n\n\n\n<p>Questi riferimenti normativi, insieme ad altre disposizioni specifiche in materia di difesa, costituiscono il quadro giuridico che regola gli ambiti esclusi dalla disciplina generale sull\u2019intelligenza artificiale, garantendo che in tali settori siano applicate misure di protezione e controllo adeguate alla sensibilit\u00e0 delle operazioni svolte.<br><br><\/p>\n\n\n\n<p>Allo stesso tempo, viene imposta una disposizione fondamentale per i sistemi di intelligenza artificiale destinati all\u2019uso pubblico: essi devono essere installati su server situati all\u2019<strong>interno del territorio nazionale<\/strong><\/p>\n\n\n\n<p> Questa scelta non \u00e8 casuale, in quanto mira a rafforzare la sovranit\u00e0 dei dati sensibili, garantendo che informazioni di rilevanza strategica e personale siano gestite e protette secondo il quadro giurisdizionale nazionale, senza il rischio di trasferimenti in paesi con standard di sicurezza o normative differenti. <\/p>\n\n\n\n<p>In questo modo, si facilita anche il controllo da parte delle autorit\u00e0 competenti e si favorisce una maggiore trasparenza e tracciabilit\u00e0 dei dati. <\/p>\n\n\n\n<p>Inoltre, la norma rimanda esplicitamente all\u2019adeguamento delle procedure di protezione dei dati personali anche nel contesto <strong>delle attivit\u00e0 militari e di sicurezza<\/strong>, riconoscendo che tali ambiti richiedono un livello di tutela particolarmente elevato. <\/p>\n\n\n\n<p>Questo rimando garantisce che, anche in situazioni in cui il trattamento dei dati avvenga per finalit\u00e0 di difesa o operazioni di sicurezza nazionale, le misure adottate siano in linea con i pi\u00f9 rigorosi standard di protezione dei dati e della privacy. <\/p>\n\n\n\n<p><br><\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-capo-ii-disposizioni-di-settore\">CAPO II \u2013 DISPOSIZIONI DI SETTORE<\/h3>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-art-7-uso-dell-ia-in-ambito-sanitario-e-per-le-persone-con-disabilita\"><strong>Art. 7 \u2013 Uso dell\u2019IA in ambito sanitario e per le persone con disabilit\u00e0<\/strong><\/h3>\n\n\n\n<p>L\u2019articolo in questione si propone di evidenziare come l\u2019impiego dell\u2019intelligenza artificiale possa rappresentare <strong>un elemento di svolta nel miglioramento dell\u2019intero sistema sanitario.<\/strong> In primo luogo, viene sottolineato il potenziale dell\u2019IA nel supportare la prevenzione, la diagnosi e la cura delle malattie. <\/p>\n\n\n\n<p>Ci\u00f2 significa che, grazie a strumenti avanzati basati su algoritmi e processi di apprendimento automatico, \u00e8 possibile identificare in modo precoce i segnali di patologie, affinare la precisione diagnostica e personalizzare le terapie, contribuendo cos\u00ec a un\u2019efficace gestione della salute dei pazienti. <\/p>\n\n\n\n<p>Tuttavia, l\u2019articolo non si limita a mettere in luce le potenzialit\u00e0 tecnologiche, ma insiste anche sul fatto che l\u2019accesso alle prestazioni sanitarie debba rimanere universale e <strong>non essere condizionato da criteri discriminatori<\/strong>. Questo aspetto \u00e8 fondamentale per garantire che ogni cittadino, indipendentemente dalla sua condizione socio-economica, et\u00e0 o provenienza, possa beneficiare delle innovazioni tecnologiche, evitando cos\u00ec disuguaglianze nell\u2019accesso ai servizi medici.<\/p>\n\n\n\n<p>Parallelamente, l\u2019articolo promuove <strong>lo sviluppo di soluzioni innovative destinate a migliorare l\u2019accesso<\/strong>, la<strong> mobilit\u00e0 e l\u2019autonomia delle persone con disabilit\u00e0<\/strong>. In un\u2019epoca in cui l\u2019inclusione sociale rappresenta una priorit\u00e0, tali tecnologie possono offrire strumenti per superare barriere fisiche e digitali, facilitando la partecipazione attiva e indipendente di tutte le persone nella vita quotidiana e nel contesto lavorativo. Questo implica, ad esempio, lo sviluppo di dispositivi intelligenti che supportino la mobilit\u00e0 o applicazioni che agevolino l\u2019interazione con l\u2019ambiente circostante, contribuendo a una maggiore autonomia e integrazione sociale.<\/p>\n\n\n\n<p>Infine, l\u2019articolo insiste sull\u2019importanza di garantire il diritto all\u2019informazione riguardo all\u2019uso delle tecnologie di intelligenza artificiale. <\/p>\n\n\n\n<p>Questo significa che gli utenti <strong>devono essere pienamente informati sul funzionamento, sui rischi potenziali e sui benefici delle tecnologie adottat<\/strong>e, in modo da poter fare scelte consapevoli. Una comunicazione chiara e trasparente non solo favorisce la fiducia nel sistema sanitario, ma permette anche agli utenti di opporsi al trattamento dei propri dati qualora ne percepiscano una violazione, contribuendo a un uso pi\u00f9 etico e responsabile delle innovazioni digitali. In sintesi, l\u2019articolo abbraccia un approccio olistico, in cui il progresso tecnologico viene armonizzato con la tutela dei diritti individuali e la promozione dell\u2019inclusione sociale, garantendo che i benefici dell\u2019intelligenza artificiale siano condivisi equamente da tutta la collettivit\u00e0.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-art-8-ricerca-e-sperimentazione-scientifica-in-ambito-sanitario\"><br><strong>Art. 8 \u2013 Ricerca e sperimentazione scientifica in ambito sanitario<\/strong><\/h3>\n\n\n\n<p>Questa normativa si configura come uno strumento essenziale per promuovere l\u2019innovazione nel settore sanitario attraverso l\u2019impiego dell\u2019intelligenza artificiale, autorizzando l\u2019utilizzo di dati, inclusi quelli personali, da parte di enti pubblici, istituti di ricovero e cura a carattere scientifico (IRCCS) e soggetti privati coinvolti in progetti di ricerca. <\/p>\n\n\n\n<p>La disposizione si propone di creare un quadro in cui la raccolta, l\u2019elaborazione e l\u2019analisi dei dati possano essere sfruttate per sviluppare sistemi avanzati di intelligenza artificiale in grado di contribuire alla prevenzione, alla diagnosi, alla cura e allo sviluppo di nuove tecnologie medicali, senza trascurare l\u2019importanza della tutela dei diritti individuali e della privacy.<\/p>\n\n\n\n<p>In un contesto in cui i dati rappresentano la linfa vitale per la ricerca e l\u2019innovazione in ambito sanitario, risulta imprescindibile che ogni progetto di ricerca, indipendentemente dal fatto che sia promosso da enti pubblici o da soggetti privati, aderisca in modo rigoroso e scrupoloso alle normative vigenti in materia di protezione dei dati personali. <\/p>\n\n\n\n<p>Il Regolamento Generale sulla Protezione dei Dati (GDPR), unitamente alle relative disposizioni nazionali, stabilisce un quadro normativo stringente che impone al trattamento dei dati di avvenire in maniera lecito, trasparente e limitata esclusivamente agli scopi dichiarati, in questo caso finalizzati alla ricerca scientifica e all\u2019innovazione nel settore sanitario. <\/p>\n\n\n\n<p>Tale aderenza non solo tutela i diritti degli interessati, garantendo il rispetto della loro privacy e la sicurezza delle informazioni, ma assicura anche che la raccolta e l\u2019utilizzo dei dati avvengano in un ambiente di fiducia, indispensabile per il progresso della ricerca. Le misure previste dal GDPR, come la minimizzazione dei dati, la limitazione della conservazione e l\u2019obbligo di informativa, sono strumenti fondamentali per evitare che il trattamento dei dati personali si estenda oltre gli scopi dichiarati, riducendo il rischio di abusi e garantendo che ogni operazione sia giustificata e proporzionata. Inoltre, in ambito sanitario, dove le informazioni trattate spesso riguardano dati particolarmente sensibili, l\u2019adozione di ulteriori garanzie come la pseudonimizzazione o l\u2019anonimizzazione si rivela essenziale per prevenire possibili violazioni e per proteggere i soggetti coinvolti. <\/p>\n\n\n\n<p>\u00c8 inoltre importante che ogni progetto sia sottoposto a una valutazione etica approfondita da parte di specifici comitati, che possano verificare la congruenza dell\u2019attivit\u00e0 di ricerca con i principi di trasparenza, rispetto della dignit\u00e0 umana e tutela dei diritti fondamentali. Tale processo di valutazione etica non solo rafforza la legittimit\u00e0 del progetto, ma costituisce anche un elemento di garanzia per l\u2019intera comunit\u00e0, assicurando che l\u2019innovazione tecnologica non avvenga a scapito della sicurezza e della riservatezza dei dati personali. <\/p>\n\n\n\n<p>In definitiva, il rispetto rigoroso delle normative sulla protezione dei dati, integrato da un sistema di controlli interni ed esterni, rappresenta il pilastro su cui deve poggiare ogni progetto di ricerca in ambito sanitario, consentendo di sfruttare appieno le potenzialit\u00e0 dell\u2019intelligenza artificiale e di altre tecnologie innovative nel rispetto dei diritti degli individui e della trasparenza necessaria a costruire un sistema di ricerca eticamente sostenibile e legalmente conforme.<\/p>\n\n\n\n<p>Parallelamente, la normativa impone che ogni iniziativa di questo tipo sia sottoposta a un\u2019accurata valutazione etica, affinch\u00e9 i progetti di ricerca vengano esaminati e approvati da specifici comitati etici che ne verifichino la congruenza con i principi di tutela della dignit\u00e0 umana e dei diritti fondamentali. <\/p>\n\n\n\n<p>Questa duplice tutela, che abbraccia sia l\u2019aspetto della protezione dei dati personali sia quello dell\u2019approvazione etica, \u00e8 fondamentale per assicurare che l\u2019innovazione tecnologica non avvenga a scapito della riservatezza e del rispetto dei cittadini, ma piuttosto in un contesto controllato e responsabile. <\/p>\n\n\n\n<p>L\u2019obiettivo \u00e8 quello di favorire un ambiente di ricerca che sia in grado di coniugare la necessit\u00e0 di avanzamento scientifico con la rigorosa osservanza dei principi etici e giuridici, promuovendo cos\u00ec soluzioni tecnologiche che possano tradursi in benefici concreti per il sistema sanitario e, in ultima analisi, per l\u2019intera collettivit\u00e0. <\/p>\n\n\n\n<p>In questo modo, la normativa non solo apre la strada a nuove applicazioni dell\u2019intelligenza artificiale in ambito medicale, ma stabilisce anche un modello di riferimento che pone al centro la sicurezza e la tutela dei dati, imponendo misure di salvaguardia che vanno dalla pseudonimizzazione o anonimizzazione dei dati alla definizione di protocolli di sicurezza informatica avanzati, il tutto in stretta collaborazione con le istituzioni preposte alla protezione dei dati e alla valutazione etica delle ricerche. In definitiva, l\u2019intento normativo \u00e8 quello di incentivare un uso innovativo e responsabile dell\u2019IA nel settore sanitario, in cui la capacit\u00e0 di sfruttare i dati diventi un volano per la scoperta di nuovi trattamenti e metodologie, pur mantenendo un rigoroso controllo e un\u2019attenzione costante ai diritti e alla sicurezza dei cittadini.<br><\/p>\n\n\n\n<p><strong>Art. 9 \u2013 Disposizioni in materia di trattamento di dati personali<\/strong><\/p>\n\n\n\n<p>Questo contenuto si riferisce all&#8217;introduzione di un quadro normativo specifico per il trattamento dei dati personali, inclusi quelli di natura sensibile, quando vengono impiegati sistemi di intelligenza artificiale. <\/p>\n\n\n\n<p>L\u2019obiettivo \u00e8 duplice: da un lato, si vuole a<strong>gevolare la ricerca e la sperimentazione scientifica, in particolare in ambito sanitario, e dall\u2019altro garantire il rigoroso rispetto dei diritti alla privacy e della protezione dei dati previsti dal regolamento (UE) 2016\/679<\/strong>, comunemente noto come GDPR. <\/p>\n\n\n\n<p>In pratica, la normativa prevede <strong>l\u2019adozione di modalit\u00e0 semplificate che riducono gli oneri burocratici e semplificano le procedure per i progetti di ricerca<\/strong>, assicurando per\u00f2 che il trattamento dei dati avvenga in maniera lecito, trasparente e circoscritta esclusivamente agli scopi dichiarati. <\/p>\n\n\n\n<p>Questo significa che ogni fase del trattamento \u2013 dalla raccolta all\u2019analisi \u2013 deve essere gestita in conformit\u00e0 ai principi di minimizzazione dei dati, limitazione della conservazione e protezione della riservatezza, garantendo al contempo la possibilit\u00e0 per gli interessati di esercitare i propri diritti. <\/p>\n\n\n\n<p>Un ruolo fondamentale in questo ambito spetta al <strong>Ministero della Salute,<\/strong> che \u00e8 incaricato di definire specifiche procedure regolatorie volte a rendere operative queste modalit\u00e0 semplificate. <\/p>\n\n\n\n<p>Tali procedure devono fornire linee guida chiare ai ricercatori e agli enti coinvolti, assicurando che ogni progetto che utilizzi dati personali e sensibili per scopi di innovazione in ambito sanitario sia sottoposto a controlli rigorosi e ad una valutazione attenta dei rischi, senza compromettere la necessit\u00e0 di innovazione. <\/p>\n\n\n\n<p>In questo modo, si crea un ambiente di ricerca che consente di sfruttare il potenziale dell\u2019intelligenza artificiale per sviluppare nuove soluzioni e tecnologie medicali, garantendo al contempo la tutela dei dati e dei diritti degli individui. La scelta di adottare modalit\u00e0 semplificate, in linea con il GDPR, permette anche di incentivare la collaborazione tra enti pubblici e privati, favorendo un approccio integrato che unisce l\u2019innovazione tecnologica alla protezione della privacy, elemento essenziale in un settore cos\u00ec delicato e strategico come quello sanitario.<br><br><strong>Art. 10 \u2013 Fascicolo sanitario elettronico, sorveglianza e governo della sanit\u00e0 digitale<\/strong><br><\/p>\n\n\n\n<p>L&#8217;articolo in questione rappresenta un passo innovativo nell&#8217;evoluzione normativa del settore sanitario, integrando il decreto-legge 179\/2012 con nuove disposizioni che mirano a favorire l&#8217;impiego dell&#8217;intelligenza artificiale per la gestione dei fascicoli sanitari elettronici e la digitalizzazione dei servizi sanitari. <\/p>\n\n\n\n<p>L&#8217;integrazione normativa di cui si parla consiste nell&#8217;aggiornamento e nell&#8217;ampliamento del quadro legislativo gi\u00e0 esistente, in particolare del decreto-legge 179\/2012, attraverso l&#8217;inserimento di nuove disposizioni che mirano a modernizzare la gestione dei sistemi informativi in ambito sanitario. <\/p>\n\n\n\n<p>Con questa integrazione, il legislatore ha inteso colmare alcune lacune relative all&#8217;utilizzo dell&#8217;intelligenza artificiale nel settore della sanit\u00e0, introducendo norme specifiche per supportare la digitalizzazione dei servizi e per migliorare la gestione dei fascicoli sanitari elettronici. <\/p>\n\n\n\n<p>In pratica, dopo l&#8217;articolo 12 del decreto-legge 179\/2012, viene inserito un nuovo articolo, spesso denominato &#8220;Art. 12-bis&#8221;, che disciplina <strong>l&#8217;impiego dell&#8217;IA in ambito sanitario. <\/strong>Questo nuovo articolo prevede, tra l&#8217;altro, la creazione di una piattaforma di intelligenza artificiale affidata all&#8217;AGENAS, la quale avr\u00e0 il compito di fornire supporto operativo sia ai medici e agli operatori sanitari che ai cittadini. <\/p>\n\n\n\n<p>Tale piattaforma \u00e8 concepita per garantire la sicurezza e la tracciabilit\u00e0 dei dati trattati, assicurando che ogni operazione si svolga in conformit\u00e0 alle normative sulla protezione dei dati personali e in un ambiente digitale controllato. In sostanza, questa integrazione normativa si propone di aggiornare la disciplina dei sistemi informativi sanitari, adeguandola alle nuove tecnologie, e di promuovere un ambiente in cui l&#8217;innovazione, rappresentata dall&#8217;uso dell&#8217;intelligenza artificiale, si traduca in un miglioramento tangibile dell&#8217;efficienza, della trasparenza e della sicurezza dei servizi sanitari, sempre nel rispetto dei diritti e della privacy degli utenti.<br><br>La normativa intende, in primis, migliorare l&#8217;efficienza e l&#8217;efficacia dell&#8217;erogazione dei servizi sanitari, sfruttando le potenzialit\u00e0 delle tecnologie digitali per ottimizzare la raccolta, l&#8217;archiviazione e la gestione delle informazioni cliniche. <\/p>\n\n\n\n<p>In questo contesto, l&#8217;intelligenza artificiale gioca un ruolo strategico nel facilitare l&#8217;accesso tempestivo ai dati, rendendo pi\u00f9 agevole il lavoro dei medici e degli operatori sanitari, che potranno cos\u00ec beneficiare di strumenti avanzati per l&#8217;analisi e la diagnosi, migliorando la qualit\u00e0 delle cure offerte ai pazienti. <\/p>\n\n\n\n<p>La digitalizzazione, infatti, non solo consente una gestione pi\u00f9 efficiente dei fascicoli sanitari, riducendo tempi e costi, ma garantisce anche una maggiore sicurezza, poich\u00e9 le informazioni vengono trattate con sistemi che ne assicurano la tracciabilit\u00e0 e la protezione contro accessi non autorizzati o perdite accidentali.<\/p>\n\n\n\n<p>Un aspetto fondamentale della norma \u00e8 l&#8217;istituzione di una piattaforma di intelligenza artificiale, affidata all&#8217;AGENAS, che rappresenta un elemento centrale nell&#8217;ecosistema digitale sanitario. <\/p>\n\n\n\n<p>Questa piattaforma \u00e8 concepita per fornire supporto operativo e decisionale a medici, professionisti della salute e cittadini, fungendo da strumento integrato che mette a disposizione dati, analisi predittive e soluzioni innovative per migliorare l&#8217;organizzazione e la qualit\u00e0 dei servizi sanitari. L&#8217;agenzia, grazie a questa piattaforma, potr\u00e0 coordinare e monitorare il flusso di informazioni, garantendo che ogni operazione eseguita sia sicura e conforme alle normative in materia di protezione dei dati personali.<\/p>\n\n\n\n<p>La piattaforma, inoltre, \u00e8 progettata per assicurare la trasparenza e la tracciabilit\u00e0 dei dati trattati, elementi essenziali in un settore in cui la riservatezza delle informazioni \u00e8 di primaria importanza. Grazie a sistemi di audit e a controlli di sicurezza integrati, \u00e8 possibile monitorare in tempo reale l&#8217;utilizzo dei dati, individuando tempestivamente eventuali anomalie o violazioni e intervenendo prontamente per ripristinare la conformit\u00e0 alle disposizioni normative. Ci\u00f2 contribuisce a creare un ambiente di fiducia tra cittadini e istituzioni, dimostrando come l&#8217;adozione di tecnologie avanzate possa avvenire in modo responsabile e sicuro.<\/p>\n\n\n\n<p>In definitiva, questa integrazione normativa non solo modernizza il sistema sanitario, rendendolo pi\u00f9 efficiente e orientato all&#8217;innovazione, ma pone anche le basi per un modello di gestione dei dati sanitari che privilegia la sicurezza, la trasparenza e la tracciabilit\u00e0. L&#8217;obiettivo \u00e8 quello di favorire una trasformazione digitale che metta al centro le esigenze dei pazienti e degli operatori sanitari, creando un contesto in cui l&#8217;intelligenza artificiale diventi un alleato fondamentale per il progresso della medicina e per il miglioramento della qualit\u00e0 della vita, nel pieno rispetto dei diritti e della privacy di ogni individuo.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-art-11-uso-dell-ia-nell-ambito-lavorativo\"><strong>Art. 11 \u2013 Uso dell\u2019IA nell\u2019ambito lavorativo<\/strong><br><\/h3>\n\n\n\n<p>Questo contenuto esprime <strong>un principio fondamentale <\/strong>per l&#8217;adozione dell&#8217;intelligenza artificiale nei contesti lavorativi, stabilendo che il suo impiego debba essere orientato al miglioramento delle condizioni di lavoro e all&#8217;incremento della produttivit\u00e0, ma sempre nel pieno rispetto della dignit\u00e0 dei lavoratori e della riservatezza dei dati personali. <\/p>\n\n\n\n<p>In pratica, la norma mira a garantire che l&#8217;introduzione di tecnologie avanzate, sebbene finalizzata a rendere i processi pi\u00f9 efficienti e a incrementare la competitivit\u00e0, non possa essere utilizzata per strumentalizzare o diminuire il valore intrinseco del lavoro umano. <\/p>\n\n\n\n<p>Tale approccio richiede che ogni innovazione tecnologica venga implementata<strong> in maniera responsabile,<\/strong> facendo in modo che i benefici derivanti dall&#8217;uso dell&#8217;IA siano bilanciati da misure di salvaguardia che tutelino la privacy degli individui e ne garantiscano il rispetto, evitando qualsiasi forma di sfruttamento o di discriminazione. <\/p>\n\n\n\n<p>\u00c8 quindi essenziale che le aziende, prima di adottare sistemi basati sull&#8217;intelligenza artificiale, conducano una valutazione approfondita dei rischi potenziali e implementino procedure di controllo che assicurino che le tecnologie impiegate non possano compromettere l&#8217;integrit\u00e0 e la dignit\u00e0 del lavoratore. <\/p>\n\n\n\n<p>A questo proposito, il datore di lavoro \u00e8 investito di una responsabilit\u00e0 specifica: <strong>deve informare in maniera chiara e trasparente tutti i dipendenti circa le modalit\u00e0 e le finalit\u00e0 dell&#8217;utilizzo dell&#8217;IA,<\/strong> conformemente alle norme vigenti, in modo che ciascun lavoratore possa essere consapevole dei processi decisionali automatizzati e dei possibili impatti sulla propria attivit\u00e0 lavorativa. <\/p>\n\n\n\n<p><em>Tale obbligo di informazione non si limita a una mera comunicazione, ma si configura come un elemento chiave per instaurare un rapporto di fiducia tra le risorse umane e l&#8217;impresa, permettendo agli operatori di esercitare i propri diritti in modo consapevole e di richiedere interventi correttivi qualora si riscontri un uso improprio o lesivo delle tecnologie adottate. <\/em><\/p>\n\n\n\n<p>In definitiva, questo principio normativo intende promuovere un ambiente di lavoro in cui l&#8217;innovazione tecnologica non sia un fine in s\u00e9, ma un mezzo per potenziare il benessere e la produttivit\u00e0 dei lavoratori, garantendo che l&#8217;adozione dell&#8217;intelligenza artificiale avvenga in un quadro di trasparenza, equit\u00e0 e rispetto dei diritti fondamentali, contribuendo cos\u00ec a un&#8217;evoluzione sostenibile e responsabile dell&#8217;organizzazione del lavoro.<br><br><strong>Art. 12 \u2013 Osservatorio sull\u2019adozione dell\u2019IA nel mondo del lavoro<\/strong><\/p>\n\n\n\n<p><br> L\u2019istituzione di un Osservatorio presso il Ministero del Lavoro e delle Politiche Sociali rappresenta un pilastro strategico per affrontare le trasformazioni del mercato del lavoro indotte dall\u2019adozione dell\u2019intelligenza artificiale. <\/p>\n\n\n\n<p>Questo organo ha il compito di definire strategie operative che consentano di comprendere e guidare l\u2019impatto delle nuove tecnologie sui processi lavorativi, individuando in maniera costante i settori maggiormente interessati o a rischio di subire cambiamenti significativi. <\/p>\n\n\n\n<p>L\u2019Osservatorio, infatti, si configura come un centro di eccellenza per il monitoraggio e l\u2019analisi, capace di raccogliere dati, condurre studi e produrre indicazioni operative che supportino le politiche pubbliche finalizzate a garantire una transizione equa e sostenibile verso il digitale. Parallelamente, esso promuove attivit\u00e0 formative rivolte sia ai lavoratori che ai datori di lavoro, favorendo la diffusione di competenze digitali avanzate e la conoscenza degli strumenti di intelligenza artificiale. <\/p>\n\n\n\n<p>Tali iniziative formative sono fondamentali per preparare il personale alle nuove sfide tecnologiche, consentendo una maggiore integrazione e adattabilit\u00e0 all\u2019interno dei contesti lavorativi, e contribuendo a migliorare la competitivit\u00e0 delle imprese. <\/p>\n\n\n\n<p>\u00c8 importante sottolineare che i componenti dell\u2019Osservatorio non percepiscono compensi, un aspetto che mira a garantire l\u2019imparzialit\u00e0 e la massima dedizione all\u2019attivit\u00e0 di monitoraggio e analisi, evitando conflitti di interesse e assicurando che le scelte strategiche siano guidate esclusivamente dal bene collettivo e dalla tutela dei diritti dei lavoratori. <\/p>\n\n\n\n<p>Questo strumento istituzionale non solo funge da guida per l\u2019implementazione di politiche innovative e di interventi mirati, ma si configura anche come un catalizzatore di conoscenza e formazione, essenziale per accompagnare il mercato del lavoro nella transizione verso un\u2019era in cui l\u2019intelligenza artificiale diventa un alleato fondamentale per il progresso e il benessere economico e sociale.<br><\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-art-13-disposizioni-in-materia-di-professioni-intellettuali\"><strong>Art. 13 \u2013 Disposizioni in materia di professioni intellettuali<\/strong><\/h3>\n\n\n\n<p>Questo articolo definisce chiaramente che l\u2019impiego dell\u2019intelligenza artificiale nelle professioni intellettuali debba essere limitato a un ruolo strumentale e di supporto, piuttosto che sostituire <strong>la competenza e il giudizio umano <\/strong>che caratterizzano tali professioni. <\/p>\n\n\n\n<p>L\u2019obiettivo \u00e8 quello di preservare <strong>il rapporto fiduciario<\/strong>, fondamentale tra il professionista e il cliente, rapporto basato su fiducia, trasparenza e competenza che non pu\u00f2 essere compromesso dall\u2019adozione di tecnologie automatizzate. <\/p>\n\n\n\n<p>La presenza dell\u2019IA in questo contesto <strong>\u00e8 intesa a integrare e potenziare le capacit\u00e0 del professionista,<\/strong> fornendo strumenti di analisi, elaborazione dei dati e supporto decisionale che possano rendere pi\u00f9 efficiente e accurata la prestazione del servizio, ma sempre in una modalit\u00e0 in cui il controllo e la responsabilit\u00e0 ultima restino saldamente nelle mani dell\u2019essere umano. <\/p>\n\n\n\n<p>Questo significa che, sebbene l\u2019IA possa contribuire a velocizzare processi, identificare pattern o elaborare grandi quantit\u00e0 di informazioni, essa <strong>non deve mai assumere la funzione decisionale in maniera autonoma,<\/strong> poich\u00e9 il valore aggiunto di una consulenza professionale risiede proprio nella capacit\u00e0 di valutare contesti complessi e di personalizzare l\u2019intervento in base alle esigenze specifiche del cliente. Inoltre, \u00e8 imprescindibile che il cliente sia adeguatamente informato circa l\u2019uso delle tecnologie di intelligenza artificiale adottate dal professionista. <\/p>\n\n\n\n<p>Tale<strong> informazione deve essere chiara, completa e accessibile, i<\/strong>n modo da consentire al cliente di comprendere quali strumenti vengano utilizzati, come questi influenzino il processo decisionale e quali garanzie siano state predisposte per tutelare la sua privacy e la sicurezza dei dati. <\/p>\n\n\n\n<p>La trasparenza in questo ambito \u00e8 fondamentale per mantenere la <strong>fiducia del cliente,<\/strong> che deve sentirsi partecipe del processo e consapevole delle potenzialit\u00e0 e dei limiti della tecnologia impiegata. <\/p>\n\n\n\n<p>In sostanza, questa disposizione normativa intende stabilire un equilibrio tra l\u2019innovazione tecnologica e il rispetto della centralit\u00e0 del rapporto umano, assicurando che l\u2019intelligenza artificiale sia uno strumento di supporto che migliori l\u2019efficacia del lavoro intellettuale, senza compromettere la responsabilit\u00e0 e la personalizzazione del servizio professionale. In questo modo, si garantisce che l\u2019evoluzione tecnologica, pur apportando benefici in termini di efficienza e precisione, non tradisca i principi etici e la fiducia che sono alla base delle relazioni professionali nel settore intellettuale.<br><br><strong>Art. 14 \u2013 Uso dell\u2019IA nella pubblica amministrazione<\/strong><\/p>\n\n\n\n<p> La disposizione normativa impone che le pubbliche amministrazioni adottino l\u2019intelligenza artificiale come strumento per incrementare l\u2019efficienza e migliorare la qualit\u00e0 dei servizi offerti ai cittadini. <\/p>\n\n\n\n<p>In questo contesto, l\u2019adozione dell\u2019IA non deve essere intesa come una sostituzione dell\u2019intervento umano, ma piuttosto come un mezzo per semplificare processi complessi, ridurre i tempi burocratici e favorire una gestione pi\u00f9 rapida e accurata delle pratiche amministrative. Allo stesso tempo, la norma richiede che ogni operazione e decisione basata sull\u2019uso dell\u2019IA sia accompagnata da un elevato grado di trasparenza e tracciabilit\u00e0, elementi fondamentali per garantire che il processo decisionale possa essere verificato e monitorato in ogni sua fase. <\/p>\n\n\n\n<p>Questo significa che tutti i dati, le analisi e le logiche che alimentano i sistemi di IA devono essere registrati e resi accessibili, in modo da permettere audit e controlli che assicurino il corretto funzionamento e la conformit\u00e0 alle normative vigenti. \u00c8 importante sottolineare che l\u2019IA, in questo quadro, viene impiegata esclusivamente in maniera strumentale, ossia come supporto alle attivit\u00e0 decisionali, lasciando sempre l\u2019ultima parola al decisore umano. In questo modo, il controllo finale rimane nelle mani di operatori qualificati, che sono in grado di valutare le specifiche situazioni e di intervenire in caso di anomalie o errori, preservando cos\u00ec la responsabilit\u00e0 e la qualit\u00e0 del servizio offerto. Inoltre, la normativa prevede che l\u2019adozione di tali tecnologie debba avvenire utilizzando le risorse gi\u00e0 disponibili all\u2019interno delle pubbliche amministrazioni, evitando cos\u00ec ulteriori oneri finanziari e garantendo che l\u2019innovazione si integri in maniera sostenibile con il patrimonio tecnologico esistente. <\/p>\n\n\n\n<p>Questo approccio non solo promuove una gestione oculata delle risorse, ma consente anche un\u2019implementazione graduale e controllata delle nuove soluzioni, favorendo l\u2019adattamento e la formazione del personale senza generare pressioni economiche aggiuntive. <\/p>\n\n\n\n<p>La norma stabilisce un modello in cui l\u2019intelligenza artificiale diventa un alleato per il miglioramento dei servizi pubblici, incrementando l\u2019efficienza e la qualit\u00e0 delle operazioni amministrative, pur mantenendo il controllo decisionale e la responsabilit\u00e0 finale negli esseri umani, il tutto operando entro i limiti delle risorse gi\u00e0 a disposizione e garantendo trasparenza e tracciabilit\u00e0 in ogni fase del processo.<br><br><strong>Art. 15 \u2013 Impiego dell\u2019IA nell\u2019attivit\u00e0 giudiziaria<\/strong><\/p>\n\n\n\n<p>L\u2019articolo stabilisce in modo chiaro che l\u2019impiego dei sistemi di intelligenza artificiale nel contesto giudiziario pu\u00f2 essere utilizzato come strumento ausiliario per supportare le attivit\u00e0 amministrative, l\u2019analisi dei dati e la gestione delle informazioni, ma ribadisce con forza che ogni decisione interpretativa e applicativa della legge resta di competenza esclusiva del magistrato. <\/p>\n\n\n\n<p>Questo significa che, pur riconoscendo il valore aggiunto che l\u2019IA pu\u00f2 apportare, soprattutto in termini di efficienza e capacit\u00e0 di elaborare grandi moli di dati, il processo decisionale, che richiede un giudizio umano e una valutazione complessa dei fatti e delle norme, non pu\u00f2 essere delegato a sistemi automatizzati. <\/p>\n\n\n\n<p>Il ruolo del giudice, infatti, \u00e8 intrinsecamente legato alla capacit\u00e0 di interpretare la norma, valutare le prove e considerare le peculiarit\u00e0 di ogni caso concreto, elementi che richiedono la sensibilit\u00e0, l\u2019esperienza e il discernimento tipici del lavoro umano. <\/p>\n\n\n\n<p>Per garantire che l\u2019utilizzo dell\u2019IA non comprometta questi principi fondamentali, <strong>il Ministero della Giustizia si impegna a definire in maniera precisa le modalit\u00e0 operative con cui tali sistemi debbano essere impiegati nel settore giudiziario.<\/strong> <\/p>\n\n\n\n<p>Ci\u00f2 include l\u2019istituzione di <strong>protocolli rigorosi<\/strong> che stabiliscano standard elevati di trasparenza, affidabilit\u00e0 e sicurezza, nonch\u00e9 procedure che assicurino che l\u2019uso dell\u2019intelligenza artificiale avvenga in modo etico e responsabile. <\/p>\n\n\n\n<p>Parallelamente, il Ministero promuover\u00e0 <strong>attivit\u00e0 formative <\/strong>specifiche rivolte sia ai magistrati sia al personale amministrativo, affinch\u00e9 possano acquisire le competenze necessarie per comprendere il funzionamento degli strumenti di IA, interpretare correttamente i dati e utilizzarli come supporto al processo decisionale, senza mai delegare la responsabilit\u00e0 ultima. <\/p>\n\n\n\n<p>Queste iniziative formative sono essenziali per creare un ambiente in cui l\u2019innovazione tecnologica possa integrarsi efficacemente nel sistema giudiziario, migliorando l\u2019efficienza e l\u2019accuratezza delle operazioni senza intaccare l\u2019autonomia e il ruolo centrale del giudice. In definitiva, l\u2019articolo mira a coniugare i benefici offerti dall\u2019intelligenza artificiale con il principio imprescindibile che ogni decisione giudiziaria debba rimanere una prerogativa esclusivamente umana, garantendo cos\u00ec il rispetto dei diritti delle parti, la trasparenza delle decisioni e l\u2019integrit\u00e0 dell\u2019intero sistema legale.<br><br><\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-art-16-delega-al-governo-per-dati-algoritmi-e-metodi-matematici\"><strong>Art. 16 \u2013 Delega al Governo per dati, algoritmi e metodi matematici<\/strong><\/h3>\n\n\n\n<p>Questa disposizione delega al Governo l&#8217;incarico di emanare, entro dodici mesi dalla data di entrata in vigore della legge, decreti legislativi che abbiano l\u2019obiettivo di regolare in maniera organica e completa l\u2019utilizzo di dati, algoritmi e metodi matematici finalizzati all\u2019addestramento dei sistemi di intelligenza artificiale. <\/p>\n\n\n\n<p>In pratica, il Governo \u00e8 chiamato a elaborare un quadro normativo dettagliato che raccolga e coordini tutte le regole necessarie per disciplinare il processo di addestramento dei sistemi IA, partendo dalla raccolta e trattamento dei dati, passando per l\u2019adozione di algoritmi sofisticati, fino all\u2019uso di specifici metodi matematici che permettano di sviluppare modelli intelligenti efficaci e sicuri. <\/p>\n\n\n\n<p>Tale incarico prevede che le autorit\u00e0 esecutive, in primis il Presidente del Consiglio dei Ministri e il Ministero competente, debbano formulare una proposta normativa che tenga conto non solo delle esigenze tecniche e operative del settore, ma anche delle implicazioni etiche, della tutela dei diritti fondamentali e delle necessit\u00e0 di trasparenza e sicurezza informatica. <\/p>\n\n\n\n<p>Successivamente, la proposta dovr\u00e0 essere sottoposta a un iter di consultazione parlamentare, che permette ai rappresentanti eletti di esprimere pareri, suggerimenti e possibili correzioni, assicurando cos\u00ec un processo decisionale partecipativo e condiviso. Inoltre, la norma prevede la possibilit\u00e0 di prorogare il termine inizialmente fissato, qualora si rendesse necessario un ulteriore approfondimento o emergessero complessit\u00e0 tecniche e procedurali non previste in fase iniziale. <\/p>\n\n\n\n<p>Questo meccanismo di proroga garantisce la flessibilit\u00e0 necessaria per adattare la regolamentazione all&#8217;evoluzione continua delle tecnologie e alle nuove esigenze del settore, senza compromettere l\u2019obiettivo di una disciplina organica e coerente con gli standard europei e nazionali. <\/p>\n\n\n\n<p>In sostanza, la delega mira a creare un ambiente normativo che favorisca lo sviluppo responsabile e innovativo dell\u2019intelligenza artificiale, garantendo al contempo il rispetto dei diritti dei cittadini e la sicurezza dei dati, e promuovendo una regolamentazione che sia al passo con le rapide evoluzioni tecnologiche del nostro tempo.<br><br><strong>Art. 17 \u2013 Modifica al codice di procedura civile<\/strong><\/p>\n\n\n\n<p>1. All\u2019articolo 9, secondo comma, del codice di procedura civile, dopo le parole: \u00ab esecuzione forzata \u00bb sono inserite le se-guenti: \u00ab , per le cause che hanno ad oggetto il funzionamento di un sistema di intelligenza artificiale \u00bb.<\/p>\n\n\n\n<p>La modifica introdotta al codice di procedura civile rappresenta un significativo aggiornamento normativo volto a integrare e riconoscere l\u2019impiego dei sistemi di intelligenza artificiale nelle cause relative al loro funzionamento, con un focus particolare sulle procedure di esecuzione forzata. In pratica, la norma mira a disciplinare in maniera chiara e precisa l\u2019utilizzo di strumenti basati sull\u2019IA all\u2019interno del processo esecutivo, tenendo conto delle specificit\u00e0 tecniche e operative di tali sistemi. <\/p>\n\n\n\n<p>Questo aggiornamento \u00e8 rilevante perch\u00e9 consente di adeguare il sistema giuridico alle trasformazioni tecnologiche in atto, garantendo che l\u2019adozione di algoritmi e modelli di intelligenza artificiale possa contribuire a semplificare e velocizzare le procedure di esecuzione forzata, pur mantenendo un controllo rigoroso da parte dell\u2019autorit\u00e0 giudiziaria. <\/p>\n\n\n\n<p>La norma prevede l\u2019inclusione di riferimenti specifici che regolamentano l\u2019impiego dell\u2019IA nel monitoraggio e nella gestione delle fasi esecutive, ad esempio attraverso l\u2019automazione di alcuni passaggi procedurali, la gestione e l\u2019analisi dei dati relativi all\u2019esecuzione e la verifica della corretta applicazione delle decisioni giudiziarie. <\/p>\n\n\n\n<p>Tali riferimenti mirano a garantire che l\u2019utilizzo dell\u2019IA avvenga in maniera trasparente e responsabile, rispettando i principi fondamentali del processo civile, come il diritto al contraddittorio e alla corretta amministrazione della giustizia. <\/p>\n\n\n\n<p>Inoltre, l\u2019aggiornamento normativo si propone di fornire una base giuridica chiara che consenta ai tribunali e agli operatori della giustizia di utilizzare in maniera efficace strumenti digitali avanzati, senza che ci\u00f2 comporti una delega completa del processo decisionale a sistemi automatizzati, riservando sempre l\u2019ultima parola al giudice. <\/p>\n\n\n\n<p>In questo modo, l\u2019integrazione di sistemi di IA nelle procedure di esecuzione forzata diventa un valido supporto per una gestione pi\u00f9 efficiente delle cause, facilitando la tracciabilit\u00e0 e la verifica degli atti esecutivi, ma senza snaturare il ruolo del magistrato, che rimane il garante finale della legalit\u00e0 e dell\u2019equit\u00e0 delle decisioni. <\/p>\n\n\n\n<p>Questa modifica al codice di procedura civile non solo riconosce l\u2019importanza delle nuove tecnologie nel miglioramento dell\u2019efficienza processuale, ma stabilisce anche le condizioni affinch\u00e9 l\u2019adozione dell\u2019IA si svolga in un contesto giuridico sicuro, trasparente e rispettoso dei diritti delle parti coinvolte, contribuendo cos\u00ec a una giustizia pi\u00f9 moderna e adeguata alle esigenze dell\u2019era digitale.<br><br><\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-art-18-uso-dell-ia-per-il-rafforzamento-della-cybersicurezza-nazionale\"><strong>Art. 18 \u2013 Uso dell\u2019IA per il rafforzamento della cybersicurezza nazionale<\/strong><\/h3>\n\n\n\n<p>(Uso dell\u2019intelligenza artificiale per il rafforzamento della cybersicurezza nazionale)<\/p>\n\n\n\n<p>1. All\u2019articolo 7, comma 1, del decretolegge 14 giugno 2021, n. 82, convertito, con modificazioni, dalla legge 4 agosto 2021, n. 109, dopo la lettera m-ter) \u00e8 inserita la seguente:\u00ab m-quater) promuove e sviluppa ogni iniziativa, anche attraverso la conclusione di accordi di collaborazione con i privati, comunque denominati, nonch\u00e9 di partenariato pubblico privato, volta a valorizzare l\u2019intelligenza artificiale come risorsa per il rafforzamento della cybersicurezza nazionale \u00bb.<\/p>\n\n\n\n<p>Questo articolo rappresenta un&#8217;importante evoluzione normativa nel campo della cybersicurezza, in quanto non solo rafforza l&#8217;attuale quadro normativo, ma apre anche la strada a un approccio innovativo che sfrutta l&#8217;intelligenza artificiale come leva strategica per la sicurezza nazionale. <\/p>\n\n\n\n<p>La norma prevede <strong>lo sviluppo e la promozione di iniziative mirate all&#8217;impiego dell&#8217;IA<\/strong> per potenziare la resilienza dei sistemi informatici e per garantire una protezione efficace del cyberspazio. In particolare, essa riconosce che le tecnologie basate sull&#8217;IA possono svolgere un ruolo determinante nel rilevamento precoce di minacce informatiche, nell&#8217;analisi in tempo reale di eventi sospetti e nella gestione automatizzata delle risposte agli attacchi, contribuendo cos\u00ec a ridurre i tempi di intervento e a contenere potenziali danni. <\/p>\n\n\n\n<p>Per raggiungere questi obiettivi, la norma autorizza esplicitamente la creazione di collaborazioni, anche di natura pubblico-privata, che permettano di mettere insieme le competenze e le risorse dei diversi attori coinvolti nel settore della sicurezza digitale. <\/p>\n\n\n\n<p>Queste sinergie sono destinate a facilitare lo sviluppo di soluzioni tecnologiche avanzate, favorendo lo scambio di dati, conoscenze e best practices, e contribuendo alla costruzione di un ecosistema in cui le tecnologie dell&#8217;informazione possano operare in modo sinergico e coordinato. <\/p>\n\n\n\n<p>In questo contesto, l&#8217;IA viene valorizzata non solo come uno strumento di automazione e analisi, ma anche come elemento chiave per la pianificazione di strategie preventive e reattive contro le minacce informatiche, garantendo un livello di protezione del cyberspazio che sia in linea con le esigenze di sicurezza nazionale. Inoltre, l&#8217;integrazione di tali disposizioni nella normativa in materia di cybersicurezza sottolinea l&#8217;impegno del legislatore nel creare un quadro giuridico dinamico e flessibile, capace di adattarsi rapidamente alle evoluzioni tecnologiche e alle nuove forme di attacchi informatici. <\/p>\n\n\n\n<p>Questa disposizione non solo rafforza la protezione del cyberspazio, ma stimola anche l&#8217;innovazione e la cooperazione intersettoriale, promuovendo un modello di sicurezza integrato e resiliente che tenga conto delle sfide emergenti in un&#8217;epoca digitale in continua evoluzione.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-capo-iii-strategia-nazionale-autorita-nazionali-e-azioni-di-promozione\">CAPO III \u2013 STRATEGIA NAZIONALE, AUTORIT\u00c0 NAZIONALI E AZIONI DI PROMOZIONE<\/h3>\n\n\n\n<p><strong>Art. 19 \u2013 Strategia nazionale per l\u2019IA<\/strong><\/p>\n\n\n\n<p>La strategia nazionale si configura come un piano d\u2019azione complessivo e articolato, volto a guidare il percorso di innovazione tecnologica nel campo dell\u2019intelligenza artificiale all\u2019interno del nostro Paese. <\/p>\n\n\n\n<p>Essa \u00e8 coordinata dalla Presidenza del Consiglio dei Ministri, che svolge un ruolo centrale nel garantire il collegamento tra le diverse politiche settoriali e nell\u2019assicurare una visione unitaria delle priorit\u00e0 strategiche. <\/p>\n\n\n\n<p>In collaborazione con vari ministeri e autorit\u00e0 competenti, la strategia si propone di creare un ecosistema favorevole alla ricerca, allo sviluppo e all\u2019adozione di tecnologie IA, in modo da stimolare investimenti, incentivare la collaborazione pubblico-privata e consolidare la nostra posizione nel panorama internazionale dell\u2019innovazione digitale. <\/p>\n\n\n\n<p>La strategia, che deve essere sottoposta ad approvazione almeno biennale, prevede <strong>un aggiornamento costante delle misure e degli obiettivi in risposta all\u2019evoluzione delle tecnologie e delle esigenze del mercato<\/strong>, assicurando cos\u00ec una continua aderenza alle migliori pratiche internazionali. <\/p>\n\n\n\n<p>Particolare attenzione viene riservata all\u2019integrazione dei principi del diritto internazionale umanitario e alla tutela dei diritti umani, affinch\u00e9 lo sviluppo e l\u2019impiego dell\u2019intelligenza artificiale si coniughino con il rispetto delle normative etiche e dei valori fondamentali, evitando discriminazioni e garantendo trasparenza e responsabilit\u00e0 in ogni fase del processo. <\/p>\n\n\n\n<p>In questo contesto, la strategia promuove la creazione di sinergie tra enti pubblici e privati, favorendo partenariati strategici che possano condividere conoscenze, risorse e competenze, e incentivando la formazione di centri di eccellenza dedicati alla ricerca applicata. <\/p>\n\n\n\n<p>L\u2019obiettivo \u00e8 quello di tradurre le potenzialit\u00e0 dell\u2019intelligenza artificiale in vantaggi concreti per la collettivit\u00e0, migliorando i servizi pubblici, stimolando l\u2019innovazione nei settori produttivi e contribuendo al progresso sociale ed economico del Paese. <\/p>\n\n\n\n<p>Inoltre, la strategia si prefigge di creare un quadro normativo e operativo che consenta di affrontare in modo tempestivo le sfide etiche e di sicurezza legate all\u2019adozione di tecnologie emergenti, garantendo un equilibrio tra sviluppo economico, innovazione tecnologica e tutela dei diritti fondamentali.<br><\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-art-20-autorita-nazionali-per-l-ia\"><strong>Art. 20 \u2013 Autorit\u00e0 nazionali per l\u2019IA<\/strong><\/h3>\n\n\n\n<p><br>In questo contesto normativo viene attribuito un ruolo centrale all&#8217;Agenzia per l&#8217;Italia Digitale (AgID) e all&#8217;Agenzia per la Cybersicurezza Nazionale (ACN), che vengono designate come autorit\u00e0 nazionali per l&#8217;intelligenza artificiale. <\/p>\n\n\n\n<p>Queste istituzioni non solo sono chiamate a promuovere l&#8217;innovazione nel settore, incentivando lo sviluppo e l&#8217;adozione di soluzioni tecnologiche avanzate, ma hanno anche il compito di verificare che i sistemi di IA siano pienamente conformi alle normative nazionali ed europee, garantendo che ogni applicazione rispetti standard elevati di trasparenza, sicurezza e tutela dei diritti fondamentali. <\/p>\n\n\n\n<p>In particolare, l&#8217;AgID \u00e8 responsabile di definire le procedure operative e le modalit\u00e0 di notifica e accreditamento dei soggetti incaricati di controllare la conformit\u00e0 dei sistemi, mentre l&#8217;ACN si concentra sulla vigilanza in ambito di sicurezza informatica, monitorando in tempo reale il funzionamento delle infrastrutture critiche e intervenendo in caso di anomalie o minacce. <\/p>\n\n\n\n<p>Entrambe le agenzie devono coordinarsi strettamente con altre autorit\u00e0 di vigilanza, come la Banca d&#8217;Italia, la CONSOB e l&#8217;IVASS, per garantire un approccio integrato e sinergico nella gestione delle tecnologie digitali e nel controllo del mercato, assicurando cos\u00ec che il quadro regolamentare sia omogeneo e coerente a livello nazionale. <\/p>\n\n\n\n<p>Un aspetto rilevante di questa designazione riguarda anche il rapporto con il Garante per la protezione dei dati personali, il quale, pur continuando a esercitare le proprie funzioni in ambito di privacy e tutela dei dati, viene <strong>escluso<\/strong> dalla gestione diretta delle materie specifiche inerenti all&#8217;IA. <\/p>\n\n\n\n<p><strong>Art. 21 \u2013 Applicazione sperimentale dell\u2019IA nei servizi del Ministero degli Affari Esteri<\/strong><br><\/p>\n\n\n\n<p>Questa disposizione autorizza una spesa annuale di 300.000 euro per ciascuno degli anni 2025 e 2026, destinata allo sviluppo e alla sperimentazione di progetti innovativi che mirano a <strong>integrare l&#8217;intelligenza artificiale nei servizi offerti dal Ministero degli Affari Esteri.<\/strong> <\/p>\n\n\n\n<p>L&#8217;obiettivo principale \u00e8 quello di sfruttare le potenzialit\u00e0 dell&#8217;IA per migliorare l&#8217;erogazione dei servizi, rendendo pi\u00f9 efficaci, tempestive e personalizzate <strong>le interazioni tra l&#8217;amministrazione estera e cittadini e imprese.<\/strong> <\/p>\n\n\n\n<p>Grazie a questa spesa, si intende realizzare progetti pilota che possano testare e validare soluzioni tecnologiche in grado di ottimizzare processi, semplificare la gestione delle pratiche amministrative e favorire una comunicazione pi\u00f9 diretta e trasparente con il pubblico. <\/p>\n\n\n\n<p>La norma prevede inoltre che, in concomitanza con l&#8217;autorizzazione di questa spesa, siano adottate le necessarie modifiche finanziarie, in modo da garantire che il finanziamento provenga da risorse gi\u00e0 previste nel bilancio triennale o da stanziamenti riorganizzati, senza comportare ulteriori oneri a carico della finanza pubblica. <\/p>\n\n\n\n<p>In questo modo, la spesa si configura non solo come un investimento in tecnologie emergenti, ma anche come una misura di consolidamento della capacit\u00e0 innovativa dell&#8217;apparato statale, in grado di favorire l&#8217;accesso ai servizi esteri e di posizionare il Ministero come protagonista nella transizione digitale, con benefici diretti per la cittadinanza e per il tessuto economico nazionale.<br><br><\/p>\n\n\n\n<p><strong>Art. 22 \u2013 Misure di sostegno a giovani e sport<\/strong><\/p>\n\n\n\n<p><br>La norma prevede l&#8217;introduzione di una serie di provvedimenti che mirano a incentivare l&#8217;uso dell&#8217;intelligenza artificiale sia in ambito scolastico sia in quello sportivo, riconoscendo come questi settori possano beneficiare in modo significativo dall&#8217;applicazione di tecnologie innovative. <\/p>\n\n\n\n<p>In particolare, l&#8217;obiettivo \u00e8 duplice: da un lato, favorire lo sviluppo di attivit\u00e0 formative avanzate rivolte a studenti ad alto potenziale, capaci di fornire loro strumenti all&#8217;avanguardia per accrescere le proprie competenze digitali e scientifiche; dall&#8217;altro, promuovere soluzioni innovative in ambito sportivo che contribuiscano a migliorare il benessere psicofisico, favorendo al contempo l&#8217;inclusione sociale. <\/p>\n\n\n\n<p>Per quanto riguarda l&#8217;ambito scolastico, la norma incoraggia la realizzazione di programmi di formazione specifici, che possano integrare nei curricula didattici attivit\u00e0 e laboratori sull&#8217;intelligenza artificiale, garantendo cos\u00ec una preparazione adeguata a fronte delle nuove sfide tecnologiche. <\/p>\n\n\n\n<p>Questi programmi sono pensati per studenti particolarmente dotati, offrendo loro la possibilit\u00e0 di approfondire temi complessi legati al machine learning, all&#8217;analisi dei dati e alle applicazioni innovative, e per favorire un ambiente di apprendimento che stimoli la curiosit\u00e0, la creativit\u00e0 e il pensiero critico. <\/p>\n\n\n\n<p>Parallelamente, in ambito sportivo si intende promuovere l&#8217;adozione di tecnologie IA che possano monitorare e analizzare in tempo reale le prestazioni degli atleti, contribuendo al miglioramento della preparazione fisica e alla prevenzione degli infortuni. <\/p>\n\n\n\n<p>Queste soluzioni tecnologiche, infatti, possono offrire supporto non solo nel campo dell&#8217;allenamento, ma anche nell&#8217;organizzazione di eventi e nella gestione delle strutture sportive, ottimizzando risorse e processi. <\/p>\n\n\n\n<p>Un aspetto particolarmente rilevante \u00e8 l&#8217;impegno a favorire l&#8217;inclusione: le tecnologie proposte sono studiate per migliorare l&#8217;accesso e la partecipazione alle attivit\u00e0 scolastiche e sportive anche da parte delle persone con disabilit\u00e0. <\/p>\n\n\n\n<p>Ci\u00f2 implica lo sviluppo di strumenti adattativi e interattivi che possano superare le barriere fisiche e digitali, garantendo a tutti un&#8217;esperienza formativa e sportiva paritaria e di alta qualit\u00e0. In sintesi, questi provvedimenti rappresentano una strategia integrata volta a sfruttare le potenzialit\u00e0 dell&#8217;intelligenza artificiale per potenziare il sistema educativo e sportivo, promuovendo la formazione avanzata e l&#8217;inclusione, e contribuendo cos\u00ec a un miglioramento complessivo del benessere psicofisico e della competitivit\u00e0 del nostro paese nel contesto globale dell&#8217;innovazione.<\/p>\n\n\n\n<p>Ad esempio, nelle scuole si potrebbero<strong> istituire laboratori di intelligenza <\/strong>artificiale dedicati agli studenti ad alto potenziale, in cui vengano organizzati corsi avanzati di programmazione, robotica e data science. In tali laboratori, gli studenti potrebbero lavorare a progetti di sviluppo di applicazioni o sistemi che utilizzino algoritmi di machine learning per risolvere problemi reali, come la gestione intelligente delle risorse scolastiche o la creazione di piattaforme didattiche personalizzate. Queste attivit\u00e0 non solo fornirebbero agli studenti competenze tecniche all&#8217;avanguardia, ma li preparerebbero anche ad affrontare le sfide future nel campo dell&#8217;innovazione digitale.<\/p>\n\n\n\n<p>Per bambini con disabilit\u00e0 cognitive l&#8217;intelligenza artificiale pu\u00f2 offrire una serie di strumenti altamente personalizzati e adattivi, progettati per rendere l&#8217;apprendimento pi\u00f9 accessibile e coinvolgente. <\/p>\n\n\n\n<p>Ad esempio, si possono sviluppare piattaforme educative basate su algoritmi di machine learning che analizzano in tempo reale le interazioni del bambino con il materiale didattico, adattando il percorso di apprendimento alle sue specifiche capacit\u00e0 e ai suoi ritmi. Tali sistemi sono in grado di modulare la difficolt\u00e0 dei contenuti e di proporre esercizi o attivit\u00e0 ludiche che facilitino la comprensione di concetti complessi, trasformando l&#8217;apprendimento in un\u2019esperienza personalizzata e motivante. Un ulteriore esempio riguarda l&#8217;uso di giochi interattivi basati sulla realt\u00e0 aumentata o virtuale, che possono creare ambienti immersivi in cui il bambino sperimenta in modo pratico e visivo i concetti matematici, linguistici o scientifici. <\/p>\n\n\n\n<p>Queste tecnologie, oltre a stimolare l&#8217;attenzione e la memoria, favoriscono la coordinazione motoria e l&#8217;interazione sociale, rendendo l&#8217;esperienza educativa pi\u00f9 completa e multisensoriale. Inoltre, assistenti virtuali dotati di intelligenza artificiale possono fungere da tutor personali, offrendo supporto costante attraverso risposte immediate e feedback personalizzati, guidando il bambino passo dopo passo e monitorando i suoi progressi. <\/p>\n\n\n\n<p>Questi assistenti possono essere integrati in ambienti scolastici o terapeutici, permettendo agli insegnanti e ai professionisti di avere una panoramica dettagliata dei progressi e delle aree di difficolt\u00e0, in modo da poter pianificare interventi mirati e personalizzati. In questo modo, l&#8217;uso dell&#8217;IA non solo rende l&#8217;apprendimento pi\u00f9 accessibile per i bambini con disabilit\u00e0 cognitive, ma contribuisce anche a creare un ambiente educativo inclusivo, dove ogni studente pu\u00f2 ricevere il supporto necessario per sviluppare appieno le proprie potenzialit\u00e0.<br><br>In ambito sportivo, un esempio potrebbe essere l&#8217;introduzione di <strong>sistemi di monitoraggio<\/strong> basati su intelligenza artificiale che, mediante sensori e dispositivi wearable, raccolgono dati sulle prestazioni degli atleti in tempo reale. Tali sistemi potrebbero analizzare parametri come la frequenza cardiaca, il movimento e l&#8217;equilibrio per fornire feedback immediato agli allenatori, consentendo di personalizzare i programmi di allenamento e prevenire infortuni. Inoltre, per favorire l&#8217;inclusione, potrebbero essere sviluppate tecnologie assistive, come esoscheletri intelligenti o dispositivi di realt\u00e0 aumentata, che supportino atleti con disabilit\u00e0, migliorando la loro mobilit\u00e0 e permettendo loro di partecipare attivamente ad attivit\u00e0 sportive.<\/p>\n\n\n\n<p>Questi esempi dimostrano come l&#8217;adozione dell&#8217;IA possa non solo migliorare la qualit\u00e0 dell&#8217;istruzione e delle attivit\u00e0 sportive, ma anche promuovere l&#8217;inclusione e lo sviluppo di competenze avanzate, preparando le nuove generazioni a un futuro sempre pi\u00f9 digitalizzato e interconnesso.<br><br><\/p>\n\n\n\n<p><strong>Art. 23 \u2013 Investimenti nei settori dell\u2019IA, cybersicurezza e calcolo quantistico<\/strong><\/p>\n\n\n\n<p><br>Questo articolo prevede l&#8217;attivazione di un meccanismo di supporto finanziario particolarmente rilevante, che si traduce nell&#8217;autorizzazione a investimenti fino a un miliardo di euro destinati a sostenere imprese innovative operanti nei settori dell&#8217;intelligenza artificiale, della cybersicurezza e delle tecnologie quantistiche. <\/p>\n\n\n\n<p>Ci\u00f2 significa che il legislatore intende favorire la crescita e lo sviluppo di aziende che, grazie alle proprie soluzioni tecnologiche, rappresentano un elemento strategico per l&#8217;economia nazionale e per la competitivit\u00e0 internazionale. <\/p>\n\n\n\n<p>Gli investimenti sono strutturati sotto forma di equity o quasi equity, strumenti finanziari che permettono agli investitori di acquisire una partecipazione diretta (o simile a quella diretta) nel capitale dell&#8217;impresa, assumendone il rischio insieme agli altri soci. In questo modo, si creano condizioni favorevoli per l&#8217;accesso a capitali di rischio che possono essere determinanti per finanziare la ricerca e lo sviluppo di nuove tecnologie, per espandere le attivit\u00e0 di impresa e per favorire l&#8217;innovazione continua.<\/p>\n\n\n\n<p>La modalit\u00e0 di erogazione degli investimenti avviene attraverso programmi di venture capital, strumentazioni finanziarie che, grazie alla partecipazione di vari enti pubblici e privati, creano un ecosistema di supporto in cui il rischio viene condiviso tra pi\u00f9 attori. Tali programmi non solo favoriscono la fornitura di capitali, ma stimolano anche la collaborazione e il networking tra il settore pubblico e quello privato, contribuendo a mettere in contatto investitori, imprenditori e istituzioni di ricerca. Questa sinergia \u00e8 essenziale per garantire che le imprese innovative possano accedere a risorse finanziarie e competenze manageriali e tecnologiche, necessarie per superare le fasi critiche dello sviluppo e per scalare il proprio business in maniera sostenibile.<\/p>\n\n\n\n<p>L&#8217;autorizzazione a investimenti di tale entit\u00e0 riflette un impegno strategico volto a rafforzare la posizione competitiva del Paese in ambiti tecnologici emergenti, promuovendo non solo lo sviluppo di soluzioni avanzate, ma anche la creazione di un mercato dinamico e concorrenziale. In sintesi, questo provvedimento mira a fornire un importante stimolo economico e tecnologico, incoraggiando l&#8217;innovazione attraverso l&#8217;erogazione di capitali in modo strutturato e partecipato, e contribuendo a delineare un futuro in cui l&#8217;intelligenza artificiale, la cybersicurezza e le tecnologie quantistiche possano giocare un ruolo fondamentale nel progresso e nella sicurezza del sistema economico nazionale.<\/p>\n\n\n\n<p><strong>Art. 24 \u2013 Deleghe al Governo in materia di IA<\/strong><\/p>\n\n\n\n<p><br>Questo articolo delega esplicitamente al Governo il compito di emanare decreti legislativi volti ad adeguare la normativa nazionale alle disposizioni del regolamento (UE) 2024\/1689, un riferimento fondamentale per l&#8217;impiego e la regolamentazione dei sistemi di intelligenza artificiale. <\/p>\n\n\n\n<p>Il Governo, in stretta collaborazione con le autorit\u00e0 competenti, deve pertanto elaborare una serie di strumenti normativi che possano non solo armonizzare il quadro legislativo italiano con quello europeo, ma anche garantire che vengano adottate misure di tutela adeguate per proteggere i diritti fondamentali dei cittadini. <\/p>\n\n\n\n<p>In questo contesto, \u00e8 previsto lo sviluppo di percorsi formativi specifici, destinati sia ai professionisti del settore che agli operatori dei vari ambiti in cui l&#8217;IA verr\u00e0 implementata, affinch\u00e9 possano acquisire le competenze necessarie a comprendere e gestire le tecnologie emergenti in maniera efficace e responsabile. Inoltre, il Governo dovr\u00e0 definire norme che regolamentino in maniera dettagliata l&#8217;utilizzo dell&#8217;IA in settori specifici, inclusi quelli di sicurezza e di polizia, dove l&#8217;adozione di sistemi automatizzati deve essere accompagnata da rigorosi controlli e garanzie per evitare abusi e per tutelare la privacy e i diritti dei cittadini. <\/p>\n\n\n\n<p>Tale procedura normativa richiede un approccio integrato e multidisciplinare, che coinvolga esperti legali, tecnici, e istituzioni preposte alla vigilanza, per garantire che le soluzioni adottate siano al passo con le innovazioni tecnologiche e rispettino i pi\u00f9 elevati standard etici e di sicurezza. In sostanza, l&#8217;obiettivo \u00e8 quello di creare un ambiente normativo dinamico e flessibile, capace di supportare lo sviluppo dell&#8217;intelligenza artificiale in maniera sostenibile e responsabile, assicurando al contempo che le innovazioni tecnologiche possano essere integrate nei settori critici come la sicurezza e l&#8217;ordine pubblico senza compromettere i principi democratici e i diritti individuali.<br><br><\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-capo-iv-disposizioni-a-tutela-degli-utenti-e-in-materia-di-diritto-d-autore\">CAPO IV \u2013 DISPOSIZIONI A TUTELA DEGLI UTENTI E IN MATERIA DI DIRITTO D\u2019AUTORE<\/h3>\n\n\n\n<p><strong>Art. 25 \u2013 Tutela del diritto d\u2019autore per opere generate con l\u2019IA<\/strong><\/p>\n\n\n\n<p><br>Il testo introduce modifiche alla legge sul diritto d\u2019autore (Legge 22 aprile 1941, n. 633) con l\u2019obiettivo di aggiornare la disciplina in relazione alle nuove tecnologie e al ruolo crescente dell\u2019intelligenza artificiale nella creazione di opere. In pratica, la norma riconosce che le opere realizzate con l\u2019ausilio di strumenti di intelligenza artificiale debbano essere considerate il risultato del lavoro intellettuale dell\u2019autore umano. <\/p>\n\n\n\n<p>Ci\u00f2 significa che, pur essendo impiegate tecnologie avanzate per generare contenuti, il contributo creativo e la direzione decisionali restano responsabilit\u00e0 dell\u2019essere umano, il quale ha fornito input, criteri di selezione e supervisione, mantenendo cos\u00ec la paternit\u00e0 dell\u2019opera e il diritto ad essa associato. <\/p>\n\n\n\n<p>Questa modifica \u00e8 fondamentale per preservare il valore e la tutela della creativit\u00e0 umana in un\u2019epoca in cui la tecnologia pu\u00f2 automatizzare parte del processo creativo.<\/p>\n\n\n\n<p>In particolare, la legge sul diritto d\u2019autore (Legge 22 aprile 1941, n. 633) viene modificata per chiarire che le opere realizzate con l\u2019ausilio di strumenti di intelligenza artificiale sono comunque considerate il risultato del lavoro intellettuale dell\u2019autore umano, a condizione che il contributo creativo, la supervisione e le scelte operative restino in capo a una persona. <\/p>\n\n\n\n<p>Questo comporta l\u2019inserimento, ad esempio, di un\u2019aggiunta all\u2019articolo 1 in cui il termine \u201copere dell\u2019ingegno\u201d diventi \u201copere dell\u2019ingegno umano\u201d, sottolineando che l\u2019IA non sostituisce l\u2019elemento creativo tipico dell\u2019autore, ma rappresenta uno strumento di supporto.<\/p>\n\n\n\n<p>Parallelamente, il testo stabilisce norme specifiche per regolare l\u2019estrazione di testi e dati da opere protette, nel pieno rispetto delle disposizioni internazionali, in particolare della Convenzione di Berna. Queste norme mirano a garantire che l\u2019uso di tecnologie di intelligenza artificiale per estrarre contenuti non violi i diritti degli autori, stabilendo criteri chiari e misure di salvaguardia. L\u2019intento \u00e8 quello di conciliare il diritto degli utenti a sfruttare le opere per scopi di analisi, ricerca e innovazione, con la necessit\u00e0 di proteggere il lavoro creativo degli autori e prevenire abusi o usi non autorizzati.<\/p>\n\n\n\n<p>Prendiamo in considerazione un esempio pratico per chiarire il contenuto. Immaginiamo un&#8217;universit\u00e0 che dispone di un archivio digitale contenente centinaia di opere letterarie protette da diritto d&#8217;autore. Un team di ricerca decide di utilizzare un algoritmo di intelligenza artificiale per analizzare lo stile, le tematiche e la struttura narrativa di questi testi, al fine di identificare tendenze e innovazioni nel linguaggio. La norma in questione impone che l\u2019estrazione di testi e dati da tali opere debba avvenire nel rispetto della Convenzione di Berna, che tutela i diritti degli autori.<\/p>\n\n\n\n<p>In pratica, questo significa che l&#8217;algoritmo non pu\u00f2 semplicemente scaricare e riprodurre interi paragrafi o capitoli, creando cos\u00ec una nuova opera che sfrutti il lavoro creativo originale. Invece, il sistema deve essere programmato per effettuare operazioni di &#8220;text and data mining&#8221; in modo aggregato e anonimo. Per esempio, l&#8217;algoritmo potrebbe analizzare la frequenza delle parole, identificare pattern sintattici o stilistici e produrre statistiche che riassumono le caratteristiche del linguaggio, senza estrarre contenuti testuali integralmente identificabili.<\/p>\n\n\n\n<p>Questa procedura prevede l\u2019adozione di criteri chiari: ad esempio, il software potrebbe essere configurato per limitare l\u2019estrazione a brevi estratti non consecutivi, o per fornire soltanto dati aggregati (come percentuali, medie e distribuzioni) che non permettano di ricostruire il testo originale. In questo modo, il diritto degli utenti a utilizzare le opere per scopi di ricerca e analisi viene conciliare con la necessit\u00e0 di proteggere il lavoro creativo degli autori, impedendo usi non autorizzati o la creazione di opere derivate in maniera abusiva.<\/p>\n\n\n\n<p>Questo esempio mostra come le norme mirino a favorire l\u2019innovazione e la ricerca attraverso l\u2019uso dell\u2019IA, senza compromettere la tutela del diritto d\u2019autore e proteggere gli interessi degli autori, garantendo cos\u00ec un equilibrio tra accesso ai dati e salvaguardia dei contenuti originali.<\/p>\n\n\n\n<p>In sostanza, le modifiche introdotte rafforzano il principio che, nonostante l\u2019adozione di strumenti tecnologici avanzati, l\u2019opera rimane un prodotto dell\u2019ingegno umano, e assicurano che ogni estrazione di dati o testi sia eseguita in modo conforme alle normative internazionali, tutelando cos\u00ec sia i diritti degli autori sia l\u2019interesse pubblico alla diffusione della conoscenza.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-capo-v-disposizioni-penali\">CAPO V \u2013 DISPOSIZIONI PENALI<\/h3>\n\n\n\n<p><strong>Art. 26 \u2013 Modifiche al codice penale e ad altre disposizioni<\/strong><\/p>\n\n\n\n<p><br>Questo articolo introduce nuove fattispecie penali legate all\u2019utilizzo illecito di sistemi di IA:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Vengono aggravate le pene per reati commessi mediante l\u2019impiego dell\u2019IA, specialmente in casi di inganno, ostruzione della difesa e diffusione illecita di contenuti alterati.<\/li>\n\n\n\n<li>Specifiche modifiche includono l\u2019introduzione di nuove norme per la reclusione in caso di diffusione di contenuti falsificati o alterati senza consenso, con procedura sia a querela che d\u2019ufficio nei casi particolarmente gravi.<\/li>\n\n\n\n<li>Vengono inoltre aggiornati riferimenti nel codice civile e in altre normative (ad esempio, in materia di intermediazione finanziaria) per adeguarli all\u2019impiego di sistemi di IA.<\/li>\n<\/ul>\n\n\n\n<p><\/p>\n\n\n\n<p>In particolare, la norma mira a contrastare reati che sfruttano le capacit\u00e0 avanzate dell\u2019IA per generare inganno, ostacolare la difesa e diffondere contenuti falsificati o alterati, aggravando di conseguenza le pene previste per tali comportamenti. <\/p>\n\n\n\n<p>Ad esempio, se un soggetto utilizza un sistema di IA per produrre e diffondere documenti o comunicazioni manipolate, in modo da trarre in inganno terzi o interferire con le indagini o il normale funzionamento della giustizia, le pene previste verranno intensificate rispetto a quelle applicabili per i reati analoghi compiuti con mezzi tradizionali.<\/p>\n\n\n\n<p>La norma introduce anche nuove sanzioni penali, prevedendo la reclusione per coloro che, senza il consenso delle persone interessate, diffondono contenuti generati o alterati mediante sistemi di intelligenza artificiale, soprattutto nei casi in cui tale diffusione comporti un danno ingiusto. <\/p>\n\n\n\n<p>Questa disposizione si applica sia nei procedimenti a querela, nei quali la persona offesa deve formalmente denunciare il reato, sia in quelli che si procedono d\u2019ufficio nei casi particolarmente gravi, come quando il reato colpisce persone incapaci, soggetti vulnerabili o pubbliche autorit\u00e0, o in presenza di altre aggravanti che richiedono un intervento automatico delle autorit\u00e0 giudiziarie.<\/p>\n\n\n\n<p>Parallelamente, il legislatore ha aggiornato alcuni riferimenti normativi nel codice civile e in altre leggi, ad esempio quelle che regolano l&#8217;intermediazione finanziaria, per adeguarli all&#8217;impiego dei sistemi di IA. <\/p>\n\n\n\n<p>Questi aggiornamenti sono necessari per garantire che l\u2019evoluzione tecnologica non crei delle lacune nella disciplina dei reati e per assicurare che le responsabilit\u00e0, sia penali che civili, siano chiaramente definite in relazione all&#8217;uso di strumenti di intelligenza artificiale. In questo modo, il sistema giuridico si dote di strumenti pi\u00f9 efficaci per prevenire e sanzionare comportamenti illeciti legati all&#8217;uso di tecnologie avanzate, mantenendo un equilibrio tra l\u2019innovazione tecnologica e la tutela dei diritti individuali e collettivi.<\/p>\n\n\n\n<p>In sintesi, l\u2019articolo intende rafforzare il quadro normativo, introducendo misure sanzionatorie pi\u00f9 severe per gli abusi nell\u2019utilizzo dell\u2019IA, prevedendo nuove fattispecie penali e aggiornando le norme esistenti, in modo da rispondere in maniera adeguata alle sfide poste dall\u2019innovazione tecnologica, proteggendo cos\u00ec la societ\u00e0 dagli effetti negativi di un uso improprio dei sistemi di intelligenza artificiale.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-considerazioni\">Considerazioni<\/h3>\n\n\n\n<p>Il bilanciamento tra innovazione tecnologica e tutela dei diritti fondamentali rappresenta uno degli aspetti pi\u00f9 critici e complessi nell&#8217;ambito della regolamentazione dell&#8217;intelligenza artificiale. <\/p>\n\n\n\n<p>Da un lato, le nuove tecnologie offrono opportunit\u00e0 straordinarie per migliorare l&#8217;efficienza, la precisione e l&#8217;accessibilit\u00e0 in settori cruciali come la sanit\u00e0, il lavoro e la giustizia. Queste applicazioni possono rivoluzionare il modo in cui vengono erogati i servizi pubblici, facilitando diagnosi pi\u00f9 rapide e accurate in ambito medico, ottimizzando i processi decisionali nelle imprese e accelerando il lavoro amministrativo nelle istituzioni giudiziarie. <\/p>\n\n\n\n<p>Dall&#8217;altro lato, l&#8217;impiego diffuso dell&#8217;IA solleva questioni fondamentali legate alla protezione della privacy, alla trasparenza dei processi e all&#8217;autonomia decisionale degli individui. \u00c8 infatti essenziale che l&#8217;introduzione di sistemi intelligenti non comporti la raccolta indiscriminata o il trattamento improprio di dati personali, n\u00e9 che si traduca in una delega completa delle decisioni critiche a macchine, sostituendo cos\u00ec il giudizio umano.<\/p>\n\n\n\n<p>In questo contesto, le normative devono essere concepite in maniera da garantire che ogni fase del processo di implementazione dell&#8217;IA sia accompagnata da rigorosi controlli e meccanismi di salvaguardia. <\/p>\n\n\n\n<p>Ad esempio, le disposizioni devono prevedere che i dati personali siano trattati nel rispetto dei principi di minimizzazione, liceit\u00e0 e trasparenza, in modo da evitare abusi e garantire che l&#8217;uso delle informazioni sensibili non comporti una violazione della privacy degli interessati. <\/p>\n\n\n\n<p>Allo stesso modo, \u00e8 fondamentale che l&#8217;adozione di sistemi di IA non porti alla completa automazione dei processi decisionali in ambiti dove il giudizio umano \u00e8 imprescindibile, come nel caso di decisioni che possono incidere direttamente sulla vita dei cittadini o sulla giustizia amministrativa.<\/p>\n\n\n\n<p>Un ulteriore aspetto da approfondire riguarda il ruolo del controllo e della sorveglianza: le disposizioni normative devono infatti prevedere strumenti efficaci per monitorare l&#8217;utilizzo dell&#8217;intelligenza artificiale, garantendo che eventuali anomalie o errori possano essere prontamente rilevati e corretti. <\/p>\n\n\n\n<p>Ci\u00f2 pu\u00f2 avvenire attraverso sistemi di audit, valutazioni d&#8217;impatto e la partecipazione attiva di autorit\u00e0 indipendenti, capaci di verificare la conformit\u00e0 delle tecnologie agli standard etici e di sicurezza stabiliti dalla legge. In questo modo, si pu\u00f2 assicurare che l&#8217;innovazione tecnologica non induca effetti collaterali indesiderati, come la discriminazione, l&#8217;influenza indebita sulle decisioni o la violazione dei diritti individuali.<\/p>\n\n\n\n<p>Rimanere ancorati all&#8217;essere umano nel processo decisionale non significa semplicemente mantenere un controllo burocratico o formale, ma costituisce una salvaguardia essenziale della dignit\u00e0, della responsabilit\u00e0 e della capacit\u00e0 critica che caratterizzano l&#8217;uomo. Affidare le scelte critiche a un sistema di intelligenza artificiale, per quanto sofisticato, comporterebbe il rischio di appiattire la ricchezza delle sfumature umane e, conseguentemente, di privare la societ\u00e0 della capacit\u00e0 di interpretare e valutare le decisioni in modo etico e contestualizzato. Mantenere il ruolo decisionale nelle mani degli esseri umani significa preservare la capacit\u00e0 di giudizio che, grazie alla nostra esperienza, alla riflessione morale e alla sensibilit\u00e0 culturale, \u00e8 in grado di integrare valori etici e sociali che una macchina, pur basandosi su dati e algoritmi, non pu\u00f2 completamente comprendere o contestualizzare.<\/p>\n\n\n\n<p>In altre parole, rimanere ancorati all&#8217;uomo tutela lo stesso uomo, poich\u00e9 consente di evitare che le decisioni, anche se efficienti e rapide, diventino meccaniche e prive di senso critico. Questo approccio serve a rivendicare la supremazia umana, intesa non come un concetto di superiorit\u00e0 in senso competitivo, ma come la conferma del fatto che il pensiero critico, l&#8217;empatia, la responsabilit\u00e0 e la capacit\u00e0 di valutare le conseguenze a lungo termine sono attributi intrinsecamente umani, insostituibili e fondamentali per una societ\u00e0 giusta e consapevole.<\/p>\n\n\n\n<p>Questo principio di centralit\u00e0 dell&#8217;uomo \u00e8 cruciale per evitare che la tecnologia diventi uno strumento di disumanizzazione o che, in ultima analisi, si crei una dipendenza eccessiva da sistemi automatizzati che non possono essere ritenuti responsabili delle decisioni prese. In definitiva, rimanere ancorati all&#8217;uomo significa affermare che, per quanto avanzate possano essere le capacit\u00e0 delle intelligenze artificiali, esse sono e devono rimanere strumenti di supporto alla creativit\u00e0, alla responsabilit\u00e0 e alla capacit\u00e0 decisionale dell&#8217;essere umano, garantendo cos\u00ec che il progresso tecnologico sia sempre al servizio della persona e non viceversa.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-i-tempi-dei-decreti-legislativi\">I tempi dei decreti legislativi<\/h3>\n\n\n\n<p>La delega al Governo per l&#8217;adozione di decreti legislativi specifici, finalizzata ad allineare la normativa nazionale al regolamento (UE) 2024\/1689, apre un dibattito cruciale sulla necessit\u00e0 di adottare strumenti normativi e percorsi formativi capaci di rispondere con rapidit\u00e0 e flessibilit\u00e0 all&#8217;evoluzione costante delle tecnologie di intelligenza artificiale. <\/p>\n\n\n\n<p>Questa delega, infatti, richiede che il Governo elabori e implementi misure regolatorie che siano non solo coerenti con gli standard europei, ma anche dinamiche, in grado di adattarsi in tempi brevi ai cambiamenti tecnologici e alle nuove sfide emergenti nel campo dell&#8217;IA.<\/p>\n\n\n\n<p>Un aspetto critico riguarda la rapidit\u00e0 con cui tali decreti legislativi debbano essere emanati. <\/p>\n\n\n\n<p>In un settore caratterizzato da sviluppi incessanti, ritardi nella pubblicazione delle norme potrebbero tradursi in incertezza giuridica, creando ostacoli per le imprese e per gli operatori del settore che necessitano di un quadro normativo stabile e prevedibile per investire e innovare. Per questo motivo, \u00e8 fondamentale individuare strumenti normativi flessibili, magari integrando meccanismi di revisione periodica che consentano aggiornamenti frequenti e mirati, in modo da mantenere il legislatore al passo con i rapidi progressi dell&#8217;IA.<\/p>\n\n\n\n<p>Parallelamente, l&#8217;adozione di percorsi formativi specifici diventa essenziale per preparare tutti gli attori coinvolti \u2014 dai responsabili politici ai tecnici, dai giudici agli operatori economici \u2014 alla comprensione e gestione delle nuove tecnologie. Questi percorsi formativi dovrebbero mirare non solo a fornire conoscenze tecniche di base, ma anche a sviluppare competenze in materia di etica, sicurezza e tutela dei dati, garantendo che le normative siano interpretate e applicate in modo responsabile. In tal modo, si favorisce una cultura dell&#8217;innovazione che, pur essendo in continua evoluzione, rimanga sempre ancorata ai principi fondamentali della trasparenza, della responsabilit\u00e0 e del rispetto dei diritti individuali.<\/p>\n\n\n\n<p>Inoltre, \u00e8 necessario che il Governo, in collaborazione con le autorit\u00e0 preposte, stabilisca meccanismi di coordinamento e monitoraggio che possano verificare l&#8217;efficacia delle nuove regole e intervenire tempestivamente in caso di criticit\u00e0 o necessit\u00e0 di ulteriori aggiornamenti. Ci\u00f2 potrebbe tradursi nell&#8217;istituzione di commissioni interministeriali o di gruppi di lavoro specifici, composti da esperti di intelligenza artificiale, diritto e sicurezza, incaricati di monitorare costantemente l&#8217;implementazione delle norme e di proporre eventuali modifiche o integrazioni.<\/p>\n\n\n\n<p>La delega al Governo non solo rappresenta un&#8217;opportunit\u00e0 per armonizzare il nostro ordinamento con gli standard europei, ma pone anche sfide significative in termini di rapidit\u00e0, flessibilit\u00e0 e formazione. Garantire che le nuove tecnologie vengano implementate in modo responsabile, mantenendo al contempo un aggiornamento normativo tempestivo, \u00e8 fondamentale per evitare incertezze giuridiche e per promuovere un ambiente favorevole all&#8217;innovazione, dove il progresso tecnologico si traduca in benefici concreti per la societ\u00e0, senza compromettere la tutela dei diritti fondamentali.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-la-sovrapposizione-delle-autorita\">La sovrapposizione delle autorit\u00e0<\/h3>\n\n\n\n<p>Un aspetto critico che emerge riguarda la necessit\u00e0 di definire in modo chiaro e preciso le responsabilit\u00e0 e i ruoli operativi dei diversi enti coinvolti nella regolamentazione e nel controllo dei sistemi di intelligenza artificiale. <\/p>\n\n\n\n<p>Le norme stabiliscono ruoli specifici per l\u2019adozione e la supervisione dell\u2019IA affidando compiti strategici all\u2019AgID, all\u2019ACN e ad altri enti di vigilanza, come ad esempio Banca d\u2019Italia, CONSOB e IVASS. <\/p>\n\n\n\n<p>Tuttavia, per garantire un coordinamento efficace \u00e8 indispensabile sviluppare meccanismi che facilitino la comunicazione e la collaborazione tra questi organismi, prevenendo sovrapposizioni o conflitti di competenza. Ad esempio, potrebbe essere utile istituire un tavolo di coordinamento interministeriale o una commissione dedicata all\u2019IA, composta da rappresentanti di tutte le istituzioni coinvolte, che abbia il compito di condividere informazioni, definire protocolli comuni e risolvere eventuali discrepanze nell\u2019interpretazione delle norme.<\/p>\n\n\n\n<p>Un\u2019attenzione particolare deve essere rivolta al <strong>ruolo del Garante per la protezione dei dati personali<\/strong>. Sebbene la normativa preveda che il Garante sia escluso dalla gestione diretta di alcune materie specifiche relative all\u2019IA, esso mantiene comunque una funzione di monitoraggio imprescindibile sulle questioni legate alla privacy e alla tutela dei dati personali. Questo significa che, pur non intervenendo direttamente nell\u2019adozione operativa dei sistemi di IA, il Garante deve disporre di strumenti e canali di comunicazione efficaci per poter collaborare con AgID, ACN e gli altri enti di vigilanza, garantendo cos\u00ec che le tecnologie sviluppate rispettino sempre i diritti degli utenti.<\/p>\n\n\n\n<p>Inoltre, \u00e8 fondamentale chiarire quali siano le responsabilit\u00e0 specifiche in caso di violazioni o incidenti legati all\u2019uso improprio dell\u2019IA, cos\u00ec da evitare che la mancanza di una definizione operativa precisa crei vuoti normativi o conflitti di competenza. Per esempio, nel caso di un incidente che implichi la diffusione illecita di dati personali da parte di un sistema automatizzato, dovrebbero essere definiti i criteri per stabilire se la responsabilit\u00e0 ricada sul fornitore della tecnologia, sull\u2019ente utilizzatore o su un altro soggetto coinvolto nel processo.<\/p>\n\n\n\n<p>Queste questioni evidenziano la necessit\u00e0 di adottare non solo una regolamentazione tecnica, ma anche strumenti di governance integrata che permettano di mantenere il controllo e la trasparenza dell\u2019intero ecosistema dell\u2019IA. <\/p>\n\n\n\n<p>Tale approccio garantirebbe un bilanciamento ottimale tra innovazione e tutela dei diritti fondamentali, assicurando che ogni ente operi in un quadro coordinato e che, in caso di problematiche, esista un sistema di gestione condiviso che tuteli l\u2019interesse pubblico. In conclusione, approfondire come verr\u00e0 garantito questo coordinamento e come verranno gestite le sovrapposizioni di competenze \u00e8 fondamentale per il successo dell&#8217;intero sistema normativo, evitando incertezze giuridiche e assicurando che lo sviluppo dell&#8217;IA avvenga in modo responsabile e in linea con gli standard di protezione dei dati e dei diritti individuali.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-le-problematiche-connesse-al-diritto-d-autore\">Le problematiche connesse al diritto d&#8217;autore<\/h3>\n\n\n\n<p>Sul fronte del diritto d\u2019autore si assiste a un importante processo di modernizzazione che risponde alle nuove dinamiche introdotte dall&#8217;uso diffuso dell&#8217;intelligenza artificiale. <\/p>\n\n\n\n<p>Le modifiche normative evidenziano la necessit\u00e0 di riconoscere che, anche quando un sistema di IA \u00e8 coinvolto nella creazione di un&#8217;opera, il contributo creativo finale resta un risultato dell&#8217;intervento umano, il quale determina il carattere originale e l&#8217;unicit\u00e0 del prodotto finale. Questo riconoscimento serve a garantire che il lavoro intellettuale dell&#8217;autore non venga depotenziato dall&#8217;automazione e che il valore della creativit\u00e0 umana continui a essere tutelato come principio fondamentale.<\/p>\n\n\n\n<p>Viene, tuttavia,  posta particolare attenzione alla regolamentazione dell&#8217;estrazione automatizzata di dati, una pratica che si sta diffondendo per scopi di analisi, ricerca e innovazione. L&#8217;intento \u00e8 duplice:  assicurare che il diritto degli autori a proteggere le proprie opere non venga violato da pratiche di text and data mining non autorizzate; favorire la libert\u00e0 di ricerca e l&#8217;accesso ai dati per analisi statistiche e sperimentazioni innovative. Ad esempio, in ambito accademico e industriale, l&#8217;uso di algoritmi per analizzare grandi volumi di dati testuali pu\u00f2 fornire preziose informazioni sui trend linguistici e culturali, ma tale operazione deve essere regolamentata in modo da non comportare una riproduzione integrale o una decontestualizzazione che comprometta il diritto d&#8217;autore.<\/p>\n\n\n\n<p>Questa situazione solleva questioni complesse riguardanti il bilanciamento tra il diritto di proteggere il lavoro creativo e la necessit\u00e0 di favorire l&#8217;innovazione attraverso l&#8217;accesso ai dati. \u00c8 essenziale, infatti, che il legislatore definisca criteri chiari e trasparenti per stabilire in quali circostanze l&#8217;estrazione di dati possa essere considerata legittima, ad esempio limitando l&#8217;uso di brevi estratti o imponendo che le informazioni siano trattate in forma aggregata e anonimizzata. Tali misure permetterebbero di salvaguardare il patrimonio creativo degli autori, mantenendo al contempo un ambiente favorevole alla ricerca e all&#8217;innovazione.<\/p>\n\n\n\n<p>Infine, \u00e8 importante indagare come queste modifiche possano influire sul mercato della creativit\u00e0.  Riconoscere il contributo umano nelle opere generate con l&#8217;ausilio dell&#8217;IA pu\u00f2 incentivare gli autori a integrare strumenti tecnologici innovativi, arricchendo cos\u00ec la produzione culturale; Una regolamentazione troppo restrittiva sull&#8217;estrazione dei dati potrebbe limitare le possibilit\u00e0 di analisi e studio, ostacolando il progresso scientifico e l&#8217;innovazione. <\/p>\n\n\n\n<p>Trovare un equilibrio tra questi due aspetti rappresenta una sfida cruciale, che richiede un dialogo costante tra istituzioni, operatori del diritto d&#8217;autore, ricercatori e imprese tecnologiche, al fine di creare un sistema normativo flessibile ma robusto, in grado di proteggere la creativit\u00e0 umana senza compromettere la libert\u00e0 di ricerca e l&#8217;accesso ai dati per scopi di analisi.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<p>L&#8217;autorizzazione a investimenti fino a un miliardo di euro per sostenere imprese innovative nei settori dell\u2019IA, della cybersicurezza e delle tecnologie quantistiche rappresenta un&#8217;iniziativa ambiziosa che apre numerosi spunti di riflessione sotto il profilo della sostenibilit\u00e0 finanziaria e della corretta allocazione dei fondi pubblici e privati. Questa misura, infatti, mira a creare un ecosistema favorevole all\u2019innovazione, offrendo alle imprese la possibilit\u00e0 di accedere a risorse finanziarie essenziali per superare le fasi critiche dello sviluppo e per scalare il proprio business in maniera sostenibile.<\/p>\n\n\n\n<p>Un aspetto centrale da approfondire riguarda la struttura degli investimenti, che viene predisposta sotto forma di equity o quasi equity. Tale modalit\u00e0 consente agli investitori di acquisire una partecipazione diretta, o quasi diretta, nelle aziende innovative, condividendone il rischio e potenzialmente beneficiando di eventuali guadagni futuri. Questo approccio, se ben calibrato, pu\u00f2 incentivare realmente l&#8217;innovazione, poich\u00e9 favorisce la trasparenza e l\u2019impegno degli investitori, che hanno interesse a supportare lo sviluppo di tecnologie avanzate e a garantire che le imprese siano in grado di competere a livello internazionale.<\/p>\n\n\n\n<p>Tuttavia, \u00e8 fondamentale che l&#8217;erogazione di tali investimenti sia accompagnata da <strong>meccanismi di controllo rigorosi<\/strong>, in modo da evitare squilibri di mercato o eccessivi rischi per il sistema finanziario. Ad esempio, \u00e8 necessario definire criteri chiari per l&#8217;accesso ai fondi, stabilire soglie di rischio e prevedere un monitoraggio continuo dell&#8217;andamento degli investimenti. Questi strumenti permetterebbero di valutare l&#8217;efficacia degli investimenti nel promuovere la crescita tecnologica senza compromettere la stabilit\u00e0 del sistema economico.<\/p>\n\n\n\n<p>Inoltre, la distribuzione dei fondi deve essere bilanciata in modo da non concentrare le risorse in poche imprese o settori, ma da garantire un ampio supporto che copra diverse aree strategiche. Una corretta diversificazione degli investimenti potrebbe, ad esempio, favorire lo sviluppo simultaneo di soluzioni in ambito di intelligenza artificiale, sicurezza informatica e tecnologie quantistiche, riducendo il rischio di fallimenti sistemici e promuovendo un ecosistema di innovazione resiliente.<\/p>\n\n\n\n<p>Un ulteriore punto critico riguarda l&#8217;interazione tra il settore pubblico e quello privato nel contesto degli investimenti. La partecipazione di enti pubblici, in collaborazione con investitori privati e istituzioni finanziarie, pu\u00f2 creare sinergie che ampliano le risorse disponibili e stimolano la condivisione di conoscenze e competenze. Tuttavia, questo richiede anche una chiara definizione delle responsabilit\u00e0, nonch\u00e9 un quadro normativo che regoli la trasparenza e la rendicontazione degli investimenti, per evitare conflitti di interesse e garantire che i fondi siano utilizzati in maniera efficiente e conforme agli obiettivi strategici.<\/p>\n\n\n\n<p>In conclusione, la misura degli investimenti autorizzati rappresenta una leva potente per stimolare l&#8217;innovazione tecnologica, ma necessita di un&#8217;attenta pianificazione e di strumenti di governance che ne controllino l&#8217;implementazione. Solo in questo modo si potr\u00e0 incentivare un progresso sostenibile, assicurando che l&#8217;introduzione di nuove tecnologie avvenga in un contesto finanziario equilibrato e che i benefici derivanti dall&#8217;innovazione siano distribuiti in modo equo, senza generare rischi eccessivi per il sistema economico e finanziario nazionale.<\/p>\n\n\n\n<p>Chi vivr\u00e0 vedr\u00e0<\/p>\n","protected":false},"excerpt":{"rendered":"<p>L&#8217;approvazione del disegno di legge (Ddl) delega sull&#8217;Intelligenza Artificiale (IA) al Senato \u00e8 avvenuta in un clima tutt&#8217;altro che sereno, segnato da forti polemiche e caos in Aula. La seduta del 20 marzo 2025 ha visto il provvedimento incassare il via libera con 85 voti favorevoli e 42 contrari, ma questo passaggio \u00e8 stato preceduto [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":7806,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[44,1],"tags":[],"class_list":["post-7797","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-diritto-rovescio","category-non-categorizzato"],"yoast_head":"<!-- This site is optimized with the Yoast SEO Premium plugin v23.3 (Yoast SEO v25.6) - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Ddl Intelligenza Artificiale: il Senato approva tra le polemiche. - PB Consulting<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/7797\/\" \/>\n<meta property=\"og:locale\" content=\"en_US\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Ddl Intelligenza Artificiale: il Senato approva tra le polemiche.\" \/>\n<meta property=\"og:description\" content=\"L&#8217;approvazione del disegno di legge (Ddl) delega sull&#8217;Intelligenza Artificiale (IA) al Senato \u00e8 avvenuta in un clima tutt&#8217;altro che sereno, segnato da forti polemiche e caos in Aula. La seduta del 20 marzo 2025 ha visto il provvedimento incassare il via libera con 85 voti favorevoli e 42 contrari, ma questo passaggio \u00e8 stato preceduto [&hellip;]\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/7797\/\" \/>\n<meta property=\"og:site_name\" content=\"PB Consulting\" \/>\n<meta property=\"article:author\" content=\"https:\/\/www.facebook.com\/alberto.bozzo.9\" \/>\n<meta property=\"article:published_time\" content=\"2025-03-22T10:39:43+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2025-03-22T10:44:58+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2025\/03\/ga2sBYv0TNe9u2WcRuRciQ.jpeg\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"1024\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Alberto Bozzo\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Alberto Bozzo\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"77 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/7797\/\",\"url\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/7797\/\",\"name\":\"Ddl Intelligenza Artificiale: il Senato approva tra le polemiche. - PB Consulting\",\"isPartOf\":{\"@id\":\"https:\/\/www.consultingpb.com\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/7797\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/7797\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2025\/03\/ga2sBYv0TNe9u2WcRuRciQ.jpeg\",\"datePublished\":\"2025-03-22T10:39:43+00:00\",\"dateModified\":\"2025-03-22T10:44:58+00:00\",\"author\":{\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50\"},\"breadcrumb\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/7797\/#breadcrumb\"},\"inLanguage\":\"en-US\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/7797\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/7797\/#primaryimage\",\"url\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2025\/03\/ga2sBYv0TNe9u2WcRuRciQ.jpeg\",\"contentUrl\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2025\/03\/ga2sBYv0TNe9u2WcRuRciQ.jpeg\",\"width\":1024,\"height\":1024},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/7797\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/www.consultingpb.com\/en\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Ddl Intelligenza Artificiale: il Senato approva tra le polemiche.\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/www.consultingpb.com\/#website\",\"url\":\"https:\/\/www.consultingpb.com\/\",\"name\":\"PB Consulting\",\"description\":\"\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/www.consultingpb.com\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"en-US\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50\",\"name\":\"Alberto Bozzo\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g\",\"caption\":\"Alberto Bozzo\"},\"sameAs\":[\"https:\/\/www.consultingpb.com\/\",\"https:\/\/www.facebook.com\/alberto.bozzo.9\",\"https:\/\/www.instagram.com\/ab_dirittorovescio\/\",\"https:\/\/www.linkedin.com\/in\/alberto-bozzo-57982b63\/\"],\"url\":\"https:\/\/www.consultingpb.com\/en\/blog\/author\/alberto\/\"}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"Ddl Intelligenza Artificiale: il Senato approva tra le polemiche. - PB Consulting","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/7797\/","og_locale":"en_US","og_type":"article","og_title":"Ddl Intelligenza Artificiale: il Senato approva tra le polemiche.","og_description":"L&#8217;approvazione del disegno di legge (Ddl) delega sull&#8217;Intelligenza Artificiale (IA) al Senato \u00e8 avvenuta in un clima tutt&#8217;altro che sereno, segnato da forti polemiche e caos in Aula. La seduta del 20 marzo 2025 ha visto il provvedimento incassare il via libera con 85 voti favorevoli e 42 contrari, ma questo passaggio \u00e8 stato preceduto [&hellip;]","og_url":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/7797\/","og_site_name":"PB Consulting","article_author":"https:\/\/www.facebook.com\/alberto.bozzo.9","article_published_time":"2025-03-22T10:39:43+00:00","article_modified_time":"2025-03-22T10:44:58+00:00","og_image":[{"width":1024,"height":1024,"url":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2025\/03\/ga2sBYv0TNe9u2WcRuRciQ.jpeg","type":"image\/jpeg"}],"author":"Alberto Bozzo","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Alberto Bozzo","Est. reading time":"77 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/7797\/","url":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/7797\/","name":"Ddl Intelligenza Artificiale: il Senato approva tra le polemiche. - PB Consulting","isPartOf":{"@id":"https:\/\/www.consultingpb.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/7797\/#primaryimage"},"image":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/7797\/#primaryimage"},"thumbnailUrl":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2025\/03\/ga2sBYv0TNe9u2WcRuRciQ.jpeg","datePublished":"2025-03-22T10:39:43+00:00","dateModified":"2025-03-22T10:44:58+00:00","author":{"@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50"},"breadcrumb":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/7797\/#breadcrumb"},"inLanguage":"en-US","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/7797\/"]}]},{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/7797\/#primaryimage","url":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2025\/03\/ga2sBYv0TNe9u2WcRuRciQ.jpeg","contentUrl":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2025\/03\/ga2sBYv0TNe9u2WcRuRciQ.jpeg","width":1024,"height":1024},{"@type":"BreadcrumbList","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/7797\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/www.consultingpb.com\/en\/"},{"@type":"ListItem","position":2,"name":"Ddl Intelligenza Artificiale: il Senato approva tra le polemiche."}]},{"@type":"WebSite","@id":"https:\/\/www.consultingpb.com\/#website","url":"https:\/\/www.consultingpb.com\/","name":"PB Consulting","description":"","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.consultingpb.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"en-US"},{"@type":"Person","@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50","name":"Alberto Bozzo","image":{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g","caption":"Alberto Bozzo"},"sameAs":["https:\/\/www.consultingpb.com\/","https:\/\/www.facebook.com\/alberto.bozzo.9","https:\/\/www.instagram.com\/ab_dirittorovescio\/","https:\/\/www.linkedin.com\/in\/alberto-bozzo-57982b63\/"],"url":"https:\/\/www.consultingpb.com\/en\/blog\/author\/alberto\/"}]}},"_links":{"self":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/7797","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/comments?post=7797"}],"version-history":[{"count":10,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/7797\/revisions"}],"predecessor-version":[{"id":7811,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/7797\/revisions\/7811"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/media\/7806"}],"wp:attachment":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/media?parent=7797"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/categories?post=7797"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/tags?post=7797"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}