{"id":3847,"date":"2023-11-07T23:57:02","date_gmt":"2023-11-07T23:57:02","guid":{"rendered":"https:\/\/www.consultingpb.com\/?p=3847"},"modified":"2023-11-07T23:57:04","modified_gmt":"2023-11-07T23:57:04","slug":"il-mondo-si-ferma-per-parlare-di-intelligenza-artificiale","status":"publish","type":"post","link":"https:\/\/www.consultingpb.com\/en\/blog\/diritto-rovescio\/il-mondo-si-ferma-per-parlare-di-intelligenza-artificiale\/","title":{"rendered":"Washington &#8211; Londra &#8211; Hiroshima il mondo si ferma a parlare di intelligenza artificiale"},"content":{"rendered":"\n<p>\u00c8 stata una settimana intensa per coloro che seguono gli sviluppi nel campo della governance dell&#8217;intelligenza artificiale. <\/p>\n\n\n\n<p>Il 30 ottobre \u00e8 stato pubblicato l&#8217;atteso &#8220;executive order&#8221; di Biden sull&#8217;Intelligenza Artificiale.  L&#8217;ordine esecutivo del presidente Biden mira a garantire la sicurezza, la protezione e la fiducia nell&#8217;uso dell&#8217;IA. Inoltre, il G7 ha emesso un codice di condotta e le Nazioni Unite hanno nominato un nuovo comitato consultivo sull&#8217;Intelligenza Artificiale.<\/p>\n\n\n\n<p>il Regno Unito ha ospitato  il vertice sulla sicurezza dell&#8217;intelligenza artificiale, emettendo la dichiarazione di Bletchley Park.<\/p>\n\n\n\n<p>In parallelo con questi sviluppi, l\u2019IAPP ospita la sua prima&nbsp;<a href=\"https:\/\/iapp.org\/conference\/iapp-ai-governance-global\/\">AI Governance Global<\/a>&nbsp;a Boston, Massachusetts, una conferenza unica nel suo genere incentrata sulla professionalizzazione della governance dell\u2019IA.&nbsp;<\/p>\n\n\n\n<p>lo stesso giorno in cui il presidente Biden ha emesso l&#8217;ordine esecutivo sull&#8217;IA, le parti del processo di Hiroshima hanno anche pubblicato i loro 11 principi guida internazionali<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Il Futuro della Politica sull&#8217;Intelligenza Artificiale negli Stati Uniti<\/h3>\n\n\n\n<h4 class=\"wp-block-heading\">L&#8217;approccio dell&#8217;amministrazione Biden all&#8217;IA<\/h4>\n\n\n\n<p>L&#8217;Amministrazione Biden ha recentemente emesso un ordine esecutivo che segna un punto di svolta nella politica degli Stati Uniti sull&#8217;intelligenza artificiale (IA). L&#8217;ordine esecutivo adotta il principio dell'&#8221;innovazione responsabile&#8221; e presenta punti cruciali che avranno un impatto decisamente rilevante nell&#8217;immediato futuro.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Visione e Posizione Strategica degli Stati Uniti<\/h4>\n\n\n\n<p>L&#8217;ordine esecutivo degli Stati Uniti fornisce una visione dettagliata della posizione politica e strategica del paese riguardo alla creazione, diffusione e utilizzo dei modelli di intelligenza artificiale (IA). <\/p>\n\n\n\n<p>L&#8217;approccio adottato \u00e8 basato sull&#8217;innovazione responsabile, con particolare attenzione alla sicurezza e alla privacy dei cittadini, all&#8217;equit\u00e0 sociale e alla promozione dell&#8217;innovazione e della concorrenza. <\/p>\n\n\n\n<p>La visione di affrontare una sfida globale si riflette anche nella cooperazione mirata all&#8217;espansione di accordi bilaterali e multilaterali nel campo dell&#8217;IA, inclusa la tutela delle infrastrutture sensibili. Il Dipartimento di Stato coordiner\u00e0 lo sviluppo in tal senso in collaborazione con il Dipartimento del Commercio.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Innovazione Responsabile e Condivisione delle Informazioni<\/h4>\n\n\n\n<p>Come parte di un approccio volto a garantire la sicurezza e l&#8217;affidabilit\u00e0 dei sistemi di intelligenza artificiale (IA), l&#8217;ordine richiede che gli sviluppatori condividano i risultati dei loro test di sicurezza e altre informazioni critiche con il governo degli Stati Uniti. <\/p>\n\n\n\n<p>Questa disposizione \u00e8 stata sviluppata ai sensi del Defense Production Act e rappresenta una sfida per le grandi imprese, poich\u00e9 il controllo dello stato sugli asset industriali \u00e8 visto con estremo sfavore. <\/p>\n\n\n\n<p>Inoltre, il Defense Production Act \u00e8 un sistema di intervento agitato nei momenti di crisi produttiva ed \u00e8 stato implementato solo grazie alle contingenze emergenziali, come la recente produzione di vaccini Covid-19.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Trasparenza e Frodi<\/h4>\n\n\n\n<p>L&#8217;ordine esecutivo richiede maggiore trasparenza per proteggere gli americani dalle frodi che possono essere commesse attraverso l&#8217;uso ingannevole dell&#8217;IA. Questo include l&#8217;istituzione di standard e migliori pratiche per rilevare i contenuti generati dall&#8217;IA e per autenticare i contenuti ufficiali del governo. <\/p>\n\n\n\n<p>Nel dibattito riguardante la diffusione delle notizie false e la necessit\u00e0 di prevenire truffe e manipolazioni, il&nbsp;<a href=\"https:\/\/www.commerce.gov\/\" target=\"_blank\" rel=\"noreferrer noopener\"><strong>Dipartimento del Commercio degli Stati Uniti<\/strong><\/a>&nbsp;\u00e8 stato invece investito dell\u2019importante compito di sviluppare una guida tecnica mirata. <\/p>\n\n\n\n<p>Tale guida avr\u00e0 l\u2019obiettivo di&nbsp;<strong>garantire l\u2019autenticit\u00e0 dei contenuti generati dall\u2019Intelligenza Artificiale.<\/strong><\/p>\n\n\n\n<p>In risposta alla crescente preoccupazione per la diffusione di notizie false e frodi, le istituzioni di vertice americane stanno adottando modelli e software basati sull&#8217;Intelligenza Artificiale per garantire che le comunicazioni governative siano autentiche e verificabili. <\/p>\n\n\n\n<p>Questa pratica ha spinto la necessit\u00e0 di predisporre un&#8217;indicazione chiara dell&#8217;origine dei contenuti prodotti, suscitando l&#8217;interesse di content creators, artisti ed editori. <\/p>\n\n\n\n<p>La guida fornir\u00e0 quindi un utile strumento per garantire la trasparenza nell&#8217;ambito della produzione di contenuti.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Decentralizzazione del Controllo sull&#8217;IA<\/h4>\n\n\n\n<p>A differenza dell&#8217;approccio europeo, che prevede la creazione di un&#8217;autorit\u00e0 ad hoc di coordinamento, l&#8217;ordine esecutivo degli Stati Uniti specifica che ogni dipartimento governativo sar\u00e0 responsabile della supervisione dell&#8217;uso responsabile e sicuro dell&#8217;IA nel proprio settore.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Cybersecurity e Materiali Biologici Pericolosi<\/h4>\n\n\n\n<p>L&#8217;ordine esecutivo richiede una gestione responsabile dell&#8217;Intelligenza Artificiale (IA) nella progettazione di materiali biologici pericolosi, nonch\u00e9 la creazione di un programma di cybersecurity avanzato per individuare e correggere le vulnerabilit\u00e0 nei software critici. <\/p>\n\n\n\n<p>Inoltre, viene istituito un programma specifico per la sicurezza informatica al fine di rafforzare ulteriormente i sistemi di protezione.<\/p>\n\n\n\n<p> Il National Security Memorandum, supervisionato dal National Security Council e dal Capo dello Staff della Casa Bianca, garantisce l&#8217;utilizzo etico e protetto dell&#8217;IA anche da parte delle forze militari e dei servizi segreti statunitensi.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-no-alle-discriminazioni\">No alle discriminazioni<\/h4>\n\n\n\n<p>Uno dei principali problemi correlati all&#8217;Intelligenza Artificiale \u00e8 la presenza di bias cognitivi, che possono portare a discriminazioni in settori fondamentali come la giustizia, la sanit\u00e0 e l&#8217;edilizia residenziale. <\/p>\n\n\n\n<p>\u00c8 fondamentale promuovere lo sviluppo di best practices nell&#8217;utilizzo dell&#8217;IA nel contesto giuridico-processuale al fine di evitare l&#8217;applicazione ingiusta basata sull&#8217;origine geografica o sull&#8217;appartenenza etnica di un individuo. Questo \u00e8 particolarmente importante per garantire un trattamento equo e imparziale a tutte le persone coinvolte in tali settori.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">La tutela ai consumatori, pazienti clinici e studenti<\/h4>\n\n\n\n<p>Le azioni di tutela dei consumatori, dei pazienti clinici e degli studenti prevedono che il Dipartimento della Salute e dei Servizi Umani riceva rapporti sull&#8217;uso non sicuro o dannoso di pratiche mediche che coinvolgono l&#8217;IA e proponga soluzioni adeguate. <\/p>\n\n\n\n<p>Nel campo scolastico, si sta lavorando allo sviluppo di strumenti di apprendimento basati su modelli di intelligenza artificiale, con l&#8217;obiettivo di creare tutor personalizzati in grado di soddisfare le esigenze educative degli studenti in modo mirato.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">La tutela dei lavoratori<\/h4>\n\n\n\n<p>Uno dei temi centrali legati allo sviluppo dell&#8217;Intelligenza Artificiale Generativa \u00e8 la sua inevitabile impatto sul mercato del lavoro. <\/p>\n\n\n\n<p>Molti settori, come il doppiaggio, la traduzione, il customer service e la correzione di bozze, potrebbero essere sostituiti da modelli di IA. Ci\u00f2 potrebbe portare a una significativa riduzione delle opportunit\u00e0 lavorative in tali settori. <\/p>\n\n\n\n<p>Tuttavia, l&#8217;Executive Order prevede che le valutazioni professionali non dovrebbero essere influenzate da bias. Inoltre, l&#8217;integrazione dell&#8217;AI nel settore produttivo potrebbe essere un motore di sviluppo economico e sociale anzich\u00e9 rappresentare un elemento di concorrenza al ribasso salariale. <\/p>\n\n\n\n<p>Per garantire il supporto a tutti i settori che subiranno una significativa riduzione delle opportunit\u00e0 lavorative, sono previste azioni dirette.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Promuovere innovazione e competizione<\/h4>\n\n\n\n<p>Il National AI Research Resource \u00e8 uno strumento che permette ai ricercatori e agli studenti di accedere direttamente alle risorse e ai dati in materia di Intelligenza Artificiale. <\/p>\n\n\n\n<p>Grazie anche ai finanziamenti diretti, \u00e8 possibile sviluppare metodologie di ricerca avanzate nei campi della salute e del cambiamento climatico. Inoltre, sono previste misure per mettere a disposizione di piccoli sviluppatori e imprenditori assistenza tecnica e risorse. La Federal Trade Commission sar\u00e0 a disposizione per supportare la commercializzazione delle ultime scoperte da parte delle piccole imprese. <\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Un Approccio Olistico<\/h4>\n\n\n\n<p>L&#8217;amministrazione Biden sta adottando un approccio olistico per la definizione della politica sull&#8217;IA. Questo approccio tiene conto sia dei benefici che dei rischi dell&#8217;IA, che si estendono a tutti i settori industriali e oltre i confini nazionali.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-in-conclusione\">In conclusione<\/h4>\n\n\n\n<p>L&#8217;ordine esecutivo sull&#8217;IA dell&#8217;amministrazione Biden rappresenta un passo significativo verso l&#8217;innovazione responsabile. Con un equilibrio tra sicurezza, privacy, equit\u00e0 sociale e promozione dell&#8217;innovazione, l&#8217;ordine esecutivo offre una visione ampia e dettagliata su come l&#8217;IA dovrebbe essere utilizzata e regolamentata negli Stati Uniti.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Tre punti chiave per un ecosistema di responsabilit\u00e0 dell&#8217;IA<\/h4>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Accesso alle informazioni e trasparenza del sistema di IA: Questo \u00e8 fondamentale, nonostante le sfide presentate dalla complessit\u00e0 tecnica dell&#8217;IA.<\/li>\n\n\n\n<li>Valutazione indipendente: Ci saranno circostanze in cui le valutazioni di terzi saranno fondamentali.<\/li>\n\n\n\n<li>Consequenze quando il sistema non funziona come previsto: Queste potrebbero includere conseguenze di mercato o responsabilit\u00e0 legale.<\/li>\n<\/ul>\n\n\n\n<h4 class=\"wp-block-heading\">Ostacoli all&#8217;ecosistema di responsabilit\u00e0 dell&#8217;IA<\/h4>\n\n\n\n<p>Creare un ecosistema di responsabilit\u00e0 per l&#8217;IA presenta diverse sfide, tra cui la comunicazione efficace della funzionalit\u00e0 di sistemi complessi e la necessit\u00e0 di revisori adeguatamente formati e dotati di risorse.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\"> La necessit\u00e0 di una forza lavoro adeguata<\/h4>\n\n\n\n<p>Una forza lavoro che sostenga un ecosistema di IA responsabile sar\u00e0 cruciale. Questa forza lavoro dovr\u00e0 provenire da diverse fonti, tra cui aziende, revisori indipendenti di terze parti e regolatori governativi. <\/p>\n\n\n\n<p>L&#8217;amministrazione Biden riconosce questa necessit\u00e0 e sta cercando di sostenere la formazione ed educazione attraverso vari percorsi, tra cui investimenti in organizzazioni come la National Science Foundation.<\/p>\n\n\n\n<p>La Casa Bianca ha intrapreso un&#8217;azione esecutiva, con l&#8217;ordinanza di questa settimana e la relativa bozza di linee guida politiche dell\u2019Ufficio di gestione e bilancio. Questo approccio mira a guidare come le agenzie federali utilizzano e sfruttano l&#8217;intelligenza artificiale.<\/p>\n\n\n\n<p>La Casa Bianca ha recentemente sollecitato il Congresso degli Stati Uniti a promulgare una legislazione bipartisan sull&#8217;Intelligenza Artificiale (IA) al fine di garantire una regolamentazione equa e bilanciata che tuteli sia i consumatori che le imprese. <\/p>\n\n\n\n<p>Inoltre, la Casa Bianca ha sottolineato l&#8217;importanza della collaborazione con i partner internazionali, tra cui il G7, e ha invitato il Congresso a sottoscrivere la Dichiarazione di Bletchley Park.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\"> Collaborazione internazionale<\/h4>\n\n\n\n<p>Parallelamente alle iniziative interne, la Casa Bianca sta cercando di collaborare con i partner internazionali, incluso il G7. Questo include la sottoscrizione della Dichiarazione di Bletchley Park, un impegno internazionale per lo sviluppo responsabile e l&#8217;uso dell&#8217;IA.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\"> Iniziative della National Telecommunications and Information Administration (NTIA)<\/h4>\n\n\n\n<p>La National Telecommunications and Information Administration (NTIA) ha sollecitato commenti pubblici all&#8217;inizio di quest&#8217;anno riguardo alla responsabilit\u00e0 dell&#8217;Intelligenza Artificiale (IA). <\/p>\n\n\n\n<p>L&#8217;amministratore associato per l&#8217;analisi delle politiche e lo sviluppo della NTIA, Russell Hanser, ha dichiarato che l&#8217;agenzia ha ricevuto oltre 1.400 commenti tra aprile e giugno, dimostrando un grande interesse pubblico sull&#8217;argomento. <\/p>\n\n\n\n<p>La sicurezza dovr\u00e0 essere garantita tramite gli standard introdotti dal&nbsp;<a href=\"https:\/\/www.nist.gov\/\" target=\"_blank\" rel=\"noreferrer noopener\"><strong>National Institute of Standards and Technology<\/strong><\/a>, mentre il&nbsp;<a href=\"https:\/\/www.energy.gov\/\" target=\"_blank\" rel=\"noreferrer noopener\"><strong>Ministero dell\u2019Energia<\/strong><\/a>&nbsp;ed&nbsp;<a href=\"https:\/\/www.dhs.gov\/\" target=\"_blank\" rel=\"noreferrer noopener\"><strong>Homeland Security<\/strong><\/a>, corrispondente al nostro Ministero dell\u2019Interno, avranno competenze in merito alle potenziali minacce mosse alle infrastrutture critiche.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Trasparenza e accesso alle informazioni<\/h4>\n\n\n\n<p>L&#8217;accesso alle informazioni e la trasparenza del sistema di intelligenza artificiale sono fondamentali. <\/p>\n\n\n\n<p>Nonostante la complessit\u00e0 tecnica e matematica degli algoritmi dell&#8217;IA, \u00e8 necessario un maggiore accesso alle informazioni.<\/p>\n\n\n\n<p> La trasparenza facilita anche la definizione degli standard e delle norme riguardanti le informazioni fornite sui modelli, rendendo pi\u00f9 semplice per i consumatori e i politici comprendere le funzionalit\u00e0 e i limiti di un sistema.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Consequenze per i fallimenti del sistema<\/h4>\n\n\n\n<p>Quando un sistema di IA non funziona come previsto, deve esserci una sorta di conseguenza. Queste potrebbero essere conseguenze di mercato, con i consumatori che scelgono concorrenti basandosi su valutazioni indipendenti, o potrebbero essere conseguenze legali, come la responsabilit\u00e0 obbligatoria o un regime normativo.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Ostacoli all&#8217;ecosistema di responsabilit\u00e0 dell&#8217;IA<\/h4>\n\n\n\n<p>Esistono ostacoli alla creazione di un ecosistema di responsabilit\u00e0 per l&#8217;IA. <\/p>\n\n\n\n<p>Ad esempio, data la complessit\u00e0 dei sistemi di IA, come possono le aziende comunicare efficacemente ai consumatori e ai legislatori il funzionamento di un sistema in modo comprensibile? Questa \u00e8 una delle sfide che dovranno essere affrontate per realizzare un ecosistema di responsabilit\u00e0 efficace per l&#8217;IA.<\/p>\n\n\n\n<p>C\u2019\u00e8 anche una significativa necessit\u00e0 di revisori adeguatamente formati e dotati di risorse e potenza di calcolo.&nbsp;Hanser ha affermato: &#8220;La nostra sensazione \u00e8 che avremo bisogno di investimenti governativi qui&#8221;, sottolineando anche che &#8220;vedremo una serie di posti di lavoro altamente nascenti&#8221;.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">L&#8217;Influenza della Fed sulle Politiche dell&#8217;Intelligenza Artificiale<\/h4>\n\n\n\n<p>L&#8217;ordine esecutivo della Casa Bianca, sebbene rivolto principalmente alle agenzie federali, avr\u00e0 un impatto significativo sul settore privato. Le linee guida dell&#8217;Ufficio di Gestione e Bilancio (OMB) richiedono che le agenzie federali seguano le disposizioni che integrano i sistemi di intelligenza artificiale, spesso costruiti e forniti da societ\u00e0 private.<\/p>\n\n\n\n<p>Gran parte dell&#8217;ordine esecutivo emanato dalla Casa Bianca riguarda le agenzie federali e il loro utilizzo di tecnologie di intelligenza artificiale. Le agenzie federali saranno tenute a seguire le linee guida dell&#8217;OMB per l&#8217;integrazione dei sistemi di intelligenza artificiale, spesso sviluppati e forniti da aziende private. <\/p>\n\n\n\n<p>Ci\u00f2 significa che le agenzie governative dovranno assumere esperti per gestire il cambiamento e non essere governate da esso. <\/p>\n\n\n\n<p>Per quanto riguarda la formazione interna dell\u2019amministrazione,&nbsp;<strong>il Presidente prevede una formazione diretta per gli impiegati di ogni livello nei campi di interesse,&nbsp;<\/strong>accelerando anche l\u2019assunzione di professionisti nel campo dell\u2019IA, seguendo la direzione di U.S. Digital Service, U.S. Digital Corps e Presidential Innovation Fellowship.<\/p>\n\n\n\n<p>Tuttavia, ci sono anche aiuti e agevolazioni previste per le aziende, che potranno sfruttare il terreno fertile degli Stati Uniti per crescere e scalare rapidamente il mercato.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-e-la-privacy\">E la privacy?<\/h4>\n\n\n\n<p>Come indicato nell&#8217;executive order, l&#8217;uso dell&#8217;Intelligenza Artificiale (AI) comporta un rischio crescente per la privacy dei cittadini, soprattutto in relazione all&#8217;addestramento dei grandi modelli di linguaggio delle AI generative. <\/p>\n\n\n\n<p>Questi sistemi possono facilmente estrarre dati personali a proprio vantaggio, causando conseguenze negative per i cittadini americani, se non sono presenti adeguate misure di sicurezza. Per questo motivo, il presidente Biden sottolinea l&#8217;importanza di adottare e sviluppare tecnologie che consentano l&#8217;uso dei dati garantendo la massima protezione della privacy.<\/p>\n\n\n\n<p>Nell&#8217;ambito della tutela della privacy, l&#8217;Ordine Esecutivo firmato dal Presidente Biden prevede l&#8217;adozione di una legge bipartisan che ponga l&#8217;accento sulla prevenzione attraverso lo sviluppo di metodologie che proteggano i dati personali fin dall&#8217;inizio, senza interferire con il processo di addestramento dei modelli di intelligenza artificiale. <\/p>\n\n\n\n<p>Inoltre, l&#8217;Ordine prevede un&#8217;analisi approfondita delle modalit\u00e0 di commercializzazione dei dati, considerati una risorsa di crescente importanza economica, al fine di garantire il rispetto degli standard etici e legali e la preservazione della privacy dei cittadini. <\/p>\n\n\n\n<p>Questo modello di &#8220;privacy-preserving&#8221; rappresenta un notevole passo avanti per gli Stati Uniti, che in questo campo sono stati largamente anticipati dall&#8217;Unione Europea. <\/p>\n\n\n\n<p>L\u2019approccio statunitense punta alla salvaguardia della privacy degli americani incoraggiando il Congresso ad approvare una legislazione sulla privacy dei dati e la formulazione di standard per il rilevamento dei contenuti generati dall\u2019intelligenza artificiale.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-l-executive-order-usa-e-l-ai-act\">L\u2019executive order Usa e  l\u2019AI Act<\/h4>\n\n\n\n<p>La differenza di approccio tra Stati Uniti ed Europa riguardo all&#8217;Intelligenza Artificiale \u00e8 un tema di grande importanza. Attualmente, in Europa si sta discutendo una proposta di legge sull&#8217;IA che adotta un approccio basato sul rischio, ma definisce in modo pi\u00f9 circoscritto le applicazioni ad alto rischio.  <\/p>\n\n\n\n<p>Questa proposta di legge mira a proteggere i cittadini europei da potenziali rischi derivanti dall&#8217;utilizzo dell&#8217;IA.  Al contrario, l&#8217;approccio statunitense adotta un approccio pi\u00f9 completo, che comprende una gamma pi\u00f9 ampia di applicazioni di intelligenza artificiale, ma manca di un&#8217;attenzione specifica all&#8217;alto rischio presente nella proposta dell&#8217;UE.<\/p>\n\n\n\n<p>Al contrario, negli Stati Uniti, l&#8217;approccio \u00e8 pi\u00f9 completo e comprende un&#8217;ampia gamma di applicazioni di intelligenza artificiale, ma manca di una specifica attenzione all&#8217;alto rischio presente nella proposta dell&#8217;UE.<\/p>\n\n\n\n<p>L&#8217;Unione Europea adotta un approccio orientato alla conformit\u00e0 per quanto riguarda l&#8217;aspetto legislativo dell&#8217;intelligenza artificiale. Ci\u00f2 significa che l&#8217;IA ad alto rischio deve passare attraverso un processo di valutazione di conformit\u00e0 obbligatoria e di approvazione. L&#8217;UE impone anche restrizioni rigorose su determinati usi dell&#8217;IA, tra cui la classificazione sociale e il riconoscimento facciale.<\/p>\n\n\n\n<p>L&#8217;Executive Order degli Stati Uniti si basa principalmente sulla cooperazione volontaria con le autorit\u00e0 governative, insieme all&#8217;attenzione per lo sviluppo di standard di sicurezza per l&#8217;Intelligenza Artificiale. L&#8217;obiettivo \u00e8 garantire la sicurezza, la protezione e l&#8217;affidabilit\u00e0 dei sistemi di Intelligenza Artificiale, senza per\u00f2 vietare specificamente l&#8217;utilizzo di applicazioni come la classificazione sociale o il riconoscimento facciale<\/p>\n\n\n\n<p>Sulla ricerca e sviluppo l\u2019AI Act dell\u2019UE assume una posizione attribuendo una maggiore enfasi alla conformit\u00e0 normativa.<\/p>\n\n\n\n<p>Nel provvedimento governativo USA si sottolinea invece l\u2019importanza della ricerca e dello sviluppo dei talenti, promuovendo attivamente l\u2019innovazione e la ricerca sull\u2019intelligenza artificiale in vari settori, come ad esempio la sanit\u00e0 e il cambiamento climatico.<\/p>\n\n\n\n<p>Un altro tema sul quale le posizioni divergono \u00e8 quello delle privacy e dei dati.<\/p>\n\n\n\n<p>La legge UE sull\u2019intelligenza artificiale si concentra sulla&nbsp;<strong>salvaguardia dei diritti fondamentali, inclusa la privac<\/strong>y, e stabilisce chiari divieti sulle pratiche di intelligenza artificiale intrusive e discriminatorie, basandosi specificamente sul GDPR.<\/p>\n\n\n\n<p>L\u2019approccio statunitense punta alla salvaguardia della privacy degli americani incoraggiando il Congresso ad approvare una legislazione sulla privacy dei dati e la formulazione di standard per il rilevamento dei contenuti generati dall\u2019intelligenza artificiale.<\/p>\n\n\n\n<p>Anche sul tema della propriet\u00e0 intellettuale e soprattutto del copyright<strong>&nbsp;l\u2019executive order americano resta abbastanza vago e blando<\/strong>, rinviando alle autorit\u00e0 preposte alcune delle questioni inerenti la protezione dei diritti di propriet\u00e0 intellettuale e dei potenziali abusi. A differenza dell\u2019AI Act che, pur non facendo espressamente riferimento al copyright, prevede, all\u2019art.28(b) alcune&nbsp;<strong>regole di trasparenza<\/strong>&nbsp;per i modelli di base che devono poi essere lette in congiunzione con gli articoli 3 e 4 della Direttiva Copyright.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-conclusione\">Conclusione<\/h4>\n\n\n\n<p>Come previsto, negli Stati Uniti si sta adottando un approccio che favorisce lo sviluppo delle piattaforme di AI generativa attraverso l&#8217;autoregolamentazione del mercato e decisioni giudiziarie in materia di protezione dei diritti, invece che una regolamentazione preventiva. <\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-il-summit-a-londra\">Il summit a Londra <\/h3>\n\n\n\n<p>2 novembre 2023, a Bletchley Park, si sono riuniti leader mondiali e del settore dell&#8217;Intelligenza Artificiale (IA), fondandosi sulla Dichiarazione di Bletchley formulata dai paesi partecipanti al vertice sulla sicurezza dell&#8217;IA del 1-2 novembre 2023. I rappresentanti di Australia, Canada, Unione Europea, Francia, Germania, Italia, Giappone, Repubblica di Corea, Singapore, Stati Uniti d&#8217;America e Regno Unito, insieme ai leader di Amazon Web Services, Anthropic, Google, Google DeepMind, Inflection AI, Meta, Microsoft, Mistral AI e Open AI hanno sottolineato l&#8217;importanza di unire le forze tra governi e sviluppatori di IA per collaborare sui test della prossima generazione di modelli di IA. Questi test mirano a valutare una serie di rischi critici per la sicurezza nazionale, l&#8217;incolumit\u00e0 pubblica e la societ\u00e0 nel suo complesso.<\/p>\n\n\n\n<p>L&#8217;IA in generale, e in particolare l&#8217;IA di frontiera, \u00e8 stata riconosciuta come una tecnologia potente che ha un grande potenziale per influenzare positivamente l&#8217;economia e la societ\u00e0.<\/p>\n\n\n\n<p>I governi hanno pianificato di:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Collaborare per sviluppare le migliori pratiche in questo campo emergente.<\/li>\n\n\n\n<li>Esaminare le possibilit\u00e0 di scambio di competenze e distacco per migliorare ulteriormente le capacit\u00e0 nel settore della sicurezza dell&#8217;IA.<\/li>\n\n\n\n<li>Stabilire accordi di collaborazione nella ricerca per promuovere l&#8217;eccellenza nello sviluppo della scienza e delle tecniche di sicurezza dell&#8217;IA.<\/li>\n\n\n\n<li>Lavorare verso metodologie di test condivise e sviluppare norme condivise in questo settore nel tempo opportuno.<\/li>\n<\/ul>\n\n\n\n<p>Come parte di questo sforzo collaborativo, il Regno Unito, in qualit\u00e0 di presidente del vertice sulla sicurezza dell&#8217;IA dell&#8217;1-2 novembre 2023, ha inaugurato l&#8217;AI Safety Institute. <\/p>\n\n\n\n<p>L&#8217;obiettivo del rapporto sullo stato dell&#8217;arte \u00e8 facilitare una comprensione condivisa e scientifica dei rischi associati all&#8217;intelligenza artificiale avanzata e sostenere tale comprensione man mano che le capacit\u00e0 continuano a crescere. Il rapporto si concentrer\u00e0 sulle ultime e pi\u00f9 avanzate ricerche sui rischi e le capacit\u00e0 dei modelli di intelligenza artificiale avanzata.<\/p>\n\n\n\n<p>Invece di generare nuovo materiale, il rapporto riassumer\u00e0 la migliore ricerca esistente e identificher\u00e0 le aree prioritarie di ricerca, fornendo una sintesi delle conoscenze attuali sui rischi dell&#8217;IA avanzata. Non fornir\u00e0 consigli politici o normativi, ma servir\u00e0 piuttosto a guidare il processo decisionale a livello sia internazionale che nazionale.<\/p>\n\n\n\n<p>Il rapporto sar\u00e0 pubblicato prima del prossimo vertice sulla sicurezza dell&#8217;intelligenza artificiale. Concentrandosi sull&#8217;IA avanzata, il rapporto mira anche a contribuire a informare e integrare altre iniziative internazionali, come quelle guidate dalle Nazioni Unite, dall&#8217;Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) e dalla Global Partnership for AI (GPAI). La sua analisi informer\u00e0 le attivit\u00e0 del gruppo consultivo sull&#8217;intelligenza artificiale delle Nazioni Unite.<\/p>\n\n\n\n<p>In qualit\u00e0 di paese ospitante del vertice sulla sicurezza dell&#8217;intelligenza artificiale, il Regno Unito fornir\u00e0 supporto al segretariato per assistere la presidenza e il gruppo di esperti.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">1. Il summit mondiale a Londra sull\u2019AI: <strong>Che cos\u2019\u00e8 la Bletchley Declaration<\/strong><\/h3>\n\n\n\n<p>Il 1 novembre si \u00e8 tenuto il Summit di Londra, al quale hanno partecipato 28 stati, tra cui Stati Uniti, Unione Europea, Cina e Regno Unito. Durante l&#8217;evento, i paesi presenti hanno firmato una Dichiarazione congiunta per discutere dei rischi e delle opportunit\u00e0 dell&#8217;Intelligenza Artificiale. <\/p>\n\n\n\n<p>In particolare, hanno concordato di promuovere la creazione di un rapporto globale, indipendente e inclusivo sullo &#8220;stato dell&#8217;arte&#8221; delle capacit\u00e0 e dei rischi dell&#8217;intelligenza artificiale avanzata. <\/p>\n\n\n\n<p>Questo accordo rappresenta l&#8217;impegno assunto dai paesi nella Dichiarazione di Bletchley del 1\u00b0 novembre 2023 per la cooperazione internazionale e la costruzione di una comprensione scientifica condivisa e basata su prove dei rischi dell&#8217;IA avanzata.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">2. Il Ruolo del Primo Ministro Britannico, Rishi Sunak<\/h3>\n\n\n\n<p>Il Primo Ministro britannico, Rishi Sunak, ha annunciato un accordo storico con le aziende del settore IA durante la conferenza stampa finale dell&#8217;AI Safety Summit, tenutosi a Bletchley Park, vicino Londra. <\/p>\n\n\n\n<p>L&#8217;AI Safety Institute del Regno Unito si impegna nella creazione di un proprio processo di valutazione in tempo utile per valutare la prossima generazione di modelli, inclusi quelli che verranno implementati nel prossimo anno. Inoltre, l&#8217;AI Safety Institute del Regno Unito collaborer\u00e0 con altri paesi per sviluppare le proprie capacit\u00e0 e facilitare la cooperazione tra i governi.<\/p>\n\n\n\n<p>L&#8217;accordo prevede la creazione di un meccanismo di verifica della sicurezza dei nuovi modelli di intelligenza artificiale prima della loro messa in commercio, al fine di garantirne l&#8217;affidabilit\u00e0 e la sicurezza. <\/p>\n\n\n\n<p>Questo rappresenta un importante passo avanti per il settore dell&#8217;IA, in quanto consentir\u00e0 di prevenire potenziali rischi per la sicurezza e di aumentare la fiducia dei consumatori nei confronti di questa tecnologia. I partecipanti hanno sottolineato il vantaggio reciproco della collaborazione internazionale che queste iniziative promuoveranno per la valutazione esterna dei sistemi di IA di frontiera rispetto a una serie di rischi per la sicurezza nazionale, l&#8217;incolumit\u00e0 e la societ\u00e0 prima della loro implementazione.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">3. L&#8217;Importanza della Sicurezza nell&#8217;IA<\/h3>\n\n\n\n<p>Sunak ha sottolineato l&#8217;importanza della sicurezza nell&#8217;uso dell&#8217;IA. Ha affermato che le persone dovrebbero essere rassicurate da questo accordo, che mira a garantire la sicurezza dei nuovi modelli di IA.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">4. Il Futuro dell&#8217;AI Safety Institute<\/h3>\n\n\n\n<p>La prima pietra miliare per l&#8217;AI Safety Institute del Regno Unito sar\u00e0 costruire il suo processo di valutazione in tempo per valutare la prossima generazione di modelli di IA, compresi quelli che saranno distribuiti l&#8217;anno prossimo.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">5. La Collaborazione Internazionale<\/h3>\n\n\n\n<p>L&#8217;AI Safety Institute collaborer\u00e0 con altri paesi per sviluppare le proprie capacit\u00e0 e facilitare la collaborazione tra i governi. Questo \u00e8 un passo importante verso un approccio globale alla sicurezza dell&#8217;IA.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">6. La Dichiarazione di Bletchley<\/h3>\n\n\n\n<p>Il primo vertice mondiale sull&#8217;intelligenza artificiale a Bletchley Park ha portato alla firma della &#8220;dichiarazione di Bletchley&#8221;. Questa dichiarazione, firmata dall&#8217;UE e 28 Paesi rappresentati al vertice, sottolinea l&#8217;urgenza di comprendere e gestire collettivamente i potenziali rischi dell&#8217;IA.<\/p>\n\n\n\n<p>\u201c<em>L\u2019Intelligenza Artificiale (IA) offre immense opportunit\u00e0 globali, ma deve essere progettata, sviluppata, distribuita e utilizzata in modo responsabile e incentrata sull\u2019uomo. La comunit\u00e0 internazionale dovrebbe cooperare sull\u2019IA per promuovere una crescita economica inclusiva, lo sviluppo sostenibile, l\u2019innovazione, i diritti umani e la fiducia del pubblico nei sistemi di IA. I sistemi di IA vengono impiegati in diversi ambiti, tra cui l\u2019occupazione, i trasporti, l\u2019istruzione, la salute, l\u2019accessibilit\u00e0 e la giustizia. Poich\u00e9 i sistemi di IA vengono impiegati in vari settori \u00e8 fondamentale affrontare i rischi potenziali, come i diritti umani, la trasparenza, l\u2019equit\u00e0, la responsabilit\u00e0, la regolamentazione, la sicurezza, l\u2019adeguata supervisione umana, l\u2019etica, l\u2019attenuazione dei pregiudizi, la privacy e la protezione dei dati\u201d.\u00a0<br>\u201cI rischi per la sicurezza sorgono alla frontiera dell\u2019IA, che comprende modelli generici altamente capaci e modelli specifici di IA ristretti che potrebbero causare danni. Questi rischi sono particolarmente preoccupanti in settori come la sicurezza informatica e la biotecnologia, dove i sistemi di IA di frontiera possono amplificare rischi come la disinformazione\u201d.\u00a0<\/em><\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-7-il-ruolo-dell-italia\">7. Il ruolo dell&#8217;Italia<\/h3>\n\n\n\n<p>Il tema della sicurezza dell&#8217;IA sar\u00e0 centrale per la Presidenza italiana del G7 del prossimo anno, come confermato da Meloni in un incontro con Sunak. Il Presidente del Consiglio,&nbsp;<strong>Giorgia Meloni<\/strong>  ha&nbsp;<a href=\"https:\/\/youtu.be\/NfIlcFXgOCc?si=Bvu-aVY0TYRGTR11\" target=\"_blank\" rel=\"noreferrer noopener\">confermato<\/a>&nbsp;che l\u2019Intelligenza artificiale sar\u00e0 uno dei temi al centro della Presidenza italiana del G7 del prossimo anno.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">8. L&#8217;Impegno per uno Sviluppo Responsabile dell&#8217;IA<\/h3>\n\n\n\n<p>I Paesi firmatari della dichiarazione di Bletchley si sono impegnati a garantire uno sviluppo e un utilizzo responsabile della nuova tecnologia. Questo rappresenta un importante passo avanti per la gestione dei rischi legati all&#8217;intelligenza artificiale a livello globale.<\/p>\n\n\n\n<p><strong>Scopo di questa comunione di intenti sar\u00e0 quello di:<\/strong><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Identificare i rischi per la sicurezza dell&#8217;Intelligenza Artificiale (IA) \u00e8 di fondamentale importanza per garantire una comprensione condivisa di tali rischi, basata su dati scientifici. Questo ci permette di sostenere tale comprensione man mano che le capacit\u00e0 dell&#8217;IA continuano ad aumentare. <\/li>\n\n\n\n<li>\u00c8 importante identificare i pericoli per la sicurezza dell&#8217;IA che sono di interesse comune, costruendo una comprensione scientifica basata su prove di tali rischi e mantenendola aggiornata al passo con l&#8217;evoluzione delle capacit\u00e0. Questo processo avviene all&#8217;interno di un approccio globale pi\u00f9 ampio per comprendere l&#8217;impatto dell&#8217;IA nella nostra societ\u00e0.<\/li>\n\n\n\n<li>Per garantire la sicurezza in relazione ai rischi associati, \u00e8 importante sviluppare politiche basate sul rischio nei nostri Paesi. Ci\u00f2 significa che si dovrebbe valutare il livello di rischio associato a determinati pericoli e sviluppare politiche e procedure di sicurezza in base a tali valutazioni. Inoltre, \u00e8 essenziale collaborare se necessario e riconoscere che gli approcci possono differire in base alle circostanze nazionali e ai quadri giuridici applicabili. <\/li>\n\n\n\n<li>Questo implica anche una maggiore trasparenza da parte delle entit\u00e0 private che sviluppano capacit\u00e0 avanzate di intelligenza artificiale, parametri di valutazione adeguati, strumenti per test di sicurezza e lo sviluppo di competenze pertinenti nel settore pubblico e nella ricerca scientifica. <\/li>\n\n\n\n<li>In sintesi, per garantire la sicurezza alla luce di tali pericoli, \u00e8 necessario sviluppare politiche basate sui rischi in tutti i nostri paesi, collaborando in modo appropriato e riconoscendo che i nostri approcci possono variare a seconda delle circostanze nazionali e dei quadri giuridici applicabili.<\/li>\n\n\n\n<li>Questo implica l&#8217;adozione di misure come una maggiore trasparenza da parte degli attori privati che sviluppano capacit\u00e0 di IA di frontiera, l&#8217;utilizzo di metriche di valutazione adeguate, la disponibilit\u00e0 di strumenti per la verifica della sicurezza e lo sviluppo di capacit\u00e0 e ricerca scientifica del settore pubblico.<\/li>\n<\/ul>\n\n\n\n<p>Si tratta, senza dubbio, di un passo avanti importante ma non bisogna dimenticare che\u00a0<strong>esistono diversi gruppi di lavoro internazionali come l\u2019OECD, il Consiglio d\u2019Europa, il G7, le Nazioni Unite,<\/strong>\u00a0che hanno gi\u00e0 pubblicato ben pi\u00f9 che qualche dichiarazione di buone intenzioni.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Il report \u201cLo Stato della Scienza\u201d<\/h3>\n\n\n\n<p>Il Summit sulla Sicurezza dell&#8217;IA ha prodotto un rapporto internazionale, indipendente e inclusivo sullo &#8220;Stato della scienza&#8221; in merito alle capacit\u00e0 e ai rischi dell&#8217;IA di frontiera. Il rapporto \u00e8 stato supervisionato da Yoshua Bengio, un accademico dell&#8217;IA vincitore del premio Turing e membro del comitato consultivo scientifico delle Nazioni Unite. <\/p>\n\n\n\n<p>Il Regno Unito ha nominato Bengio per guidare il rapporto in quanto ospite del Summit. Bengio sar\u00e0 supportato da un gruppo diversificato di eminenti accademici nel campo dell&#8217;intelligenza artificiale, che avranno una vasta gamma di competenze necessarie. Inoltre, un gruppo consultivo di esperti formati da rappresentanti dei paesi partecipanti al vertice e da altri paesi partner lo assister\u00e0.<\/p>\n\n\n\n<p>Il rapporto sar\u00e0 pubblicato prima del prossimo vertice sulla sicurezza dell&#8217;IA e si concentrer\u00e0 sull&#8217;IA di frontiera per informare e integrare altre iniziative internazionali, come quelle guidate dalle Nazioni Unite, dall&#8217;Organizzazione per la cooperazione e lo sviluppo economico (OCSE) e dal Partenariato globale per l&#8217;IA (GPAI). <\/p>\n\n\n\n<p>L&#8217;analisi del rapporto informer\u00e0 anche l&#8217;attivit\u00e0 dell&#8217;organo consultivo sull&#8217;intelligenza artificiale delle Nazioni Unite.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-i-paesi-firmatari\">I paesi firmatari<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Australia<\/li>\n\n\n\n<li>Brasile<\/li>\n\n\n\n<li>Canada<\/li>\n\n\n\n<li>Cile<\/li>\n\n\n\n<li>Cina<\/li>\n\n\n\n<li>Unione europea<\/li>\n\n\n\n<li>Francia<\/li>\n\n\n\n<li>Germania<\/li>\n\n\n\n<li>India<\/li>\n\n\n\n<li>Indonesia<\/li>\n\n\n\n<li>Irlanda<\/li>\n\n\n\n<li>Israele<\/li>\n\n\n\n<li>Italia<\/li>\n\n\n\n<li>Giappone<\/li>\n\n\n\n<li>Kenya<\/li>\n\n\n\n<li>Regno dell\u2019Arabia Saudita<\/li>\n\n\n\n<li>Paesi Bassi<\/li>\n\n\n\n<li>Nigeria<\/li>\n\n\n\n<li>Le Filippine<\/li>\n\n\n\n<li>Repubblica di Corea<\/li>\n\n\n\n<li>Ruanda<\/li>\n\n\n\n<li>Singapore<\/li>\n\n\n\n<li>Spagna<\/li>\n\n\n\n<li>Svizzera<\/li>\n\n\n\n<li>T\u00fcrkiye<\/li>\n\n\n\n<li>Ucraina<\/li>\n\n\n\n<li>Emirati Arabi Unit<\/li>\n\n\n\n<li>Regno Unito di Gran Bretagna e Irlanda del Nord<\/li>\n\n\n\n<li>Stati Uniti d\u2019America<\/li>\n\n\n\n<li><\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading\">Il  G7 e gli 11 punti di Hiroshima<\/h3>\n\n\n\n<p>I leader dei sette paesi pi\u00f9 industrializzati del mondo, noti come G7, hanno recentemente approvato un codice di condotta volontario in 11 punti chiamato &#8220;AI Process Comprehensive Policy Framework&#8221;, che fornisce una guida per le aziende che sviluppano sistemi avanzati di intelligenza artificiale. <\/p>\n\n\n\n<p>L&#8217;obiettivo del codice \u00e8 quello di promuovere l&#8217;adozione di un&#8217;intelligenza artificiale sicura, protetta e affidabile a livello mondiale.<\/p>\n\n\n\n<p> I Principi guida internazionali per le organizzazioni che sviluppano sistemi avanzati di intelligenza artificiale sono stati creati con lo scopo di fornire una guida per le organizzazioni che sviluppano e utilizzano i sistemi di intelligenza artificiale pi\u00f9 avanzati, compresi i modelli di base pi\u00f9 avanzati e i sistemi di intelligenza artificiale generativa. <\/p>\n\n\n\n<p> Il G7 ha anche concordato 11 principi guida internazionali sull&#8217;utilizzo dell&#8217;intelligenza artificiale, con l&#8217;intento di aiutare a cogliere i vantaggi e ad affrontare i rischi e le sfide poste da queste tecnologie. <\/p>\n\n\n\n<p>Il codice intende incoraggiare le aziende ad adottare misure appropriate per identificare, valutare e mitigare i rischi legati all&#8217;utilizzo dell&#8217;IA, nonch\u00e9 ad affrontare gli incidenti e i modelli di uso improprio dopo che i prodotti di IA sono stati immessi sul mercato. <\/p>\n\n\n\n<p>Le aziende dovrebbero anche pubblicare rapporti pubblici sulle capacit\u00e0, le limitazioni, l&#8217;uso e l&#8217;abuso dei sistemi di IA e investire in solidi controlli di sicurezza. <\/p>\n\n\n\n<p>I paesi aderenti al G7 utilizzeranno il codice di condotta come punto di riferimento per la gestione dell&#8217;IA.<\/p>\n\n\n\n<p>Tali iniziative rappresentano un passo importante verso una regolamentazione globale dell&#8217;IA e la definizione di standard etici e di sicurezza.<\/p>\n\n\n\n<p>\u00c8 necessario adottare misure adeguate durante l&#8217;intero processo di sviluppo e diffusione dei sistemi avanzati di intelligenza artificiale al fine di individuare, valutare e mitigare i rischi associati all&#8217;utilizzo di questi sistemi. <\/p>\n\n\n\n<p>Ci\u00f2 include l&#8217;impiego di misure di test interni ed esterni indipendenti, come il red-teaming, per identificare le vulnerabilit\u00e0 e l&#8217;implementazione di un&#8217;adeguata mitigazione per affrontare i rischi individuati. Inoltre, gli sviluppatori dovrebbero garantire la tracciabilit\u00e0 dei dati, dei processi e delle decisioni prese durante lo sviluppo del sistema. <\/p>\n\n\n\n<p>L&#8217;obiettivo \u00e8 garantire l&#8217;affidabilit\u00e0, la sicurezza e la protezione dei sistemi durante tutto il loro ciclo di vita, in modo che non comportino rischi irragionevoli.<\/p>\n\n\n\n<p>Parliamo della implementazione di misure adeguate per l&#8217;inserimento e la protezione dei dati personali e della propriet\u00e0 intellettuale. Le organizzazioni sono incoraggiate ad adottare misure adeguate per gestire la qualit\u00e0 dei dati, inclusi i dati di formazione e la raccolta dei dati, al fine di ridurre i pregiudizi dannosi. <\/p>\n\n\n\n<p>Secondo questi principi, \u00e8 anche importante garantire la trasparenza dei set di dati relativi alla formazione e le organizzazioni devono rispettare le normative legali applicabili.<\/p>\n\n\n\n<p>2. Modelli di utilizzo improprio, inclusi quelli introdotti sul mercato. Tale categoria di prodotti rappresenta un rischio per la sicurezza e la salute dei consumatori. <\/p>\n\n\n\n<p>Le organizzazioni dovrebbero considerare l&#8217;utilizzo di sistemi di intelligenza artificiale in base al livello di rischio e monitorare costantemente la presenza di vulnerabilit\u00e0, incidenti, rischi emergenti e usi impropri dopo l&#8217;implementazione. Inoltre, \u00e8 importante adottare le azioni appropriate per affrontare tali problemi. <\/p>\n\n\n\n<p>Le organizzazioni sono incoraggiate a facilitare l&#8217;individuazione e la segnalazione di problemi e vulnerabilit\u00e0 da parte di terzi e utenti dopo la distribuzione, nonch\u00e9 a conservare un&#8217;adeguata documentazione degli incidenti segnalati e a mitigare i rischi e le vulnerabilit\u00e0 identificati, in collaborazione con altre parti interessate. Infine, i meccanismi per segnalare le vulnerabilit\u00e0, ove appropriato, dovrebbero essere accessibili a un insieme diversificato di parti interessate..<\/p>\n\n\n\n<p>3. \u00c8 importante comunicare pubblicamente le capacit\u00e0, i limiti e i domini di applicazione dei sistemi di Intelligenza Artificiale, sia per l&#8217;uso appropriato che inappropriato. Questo contribuir\u00e0 ad aumentare la trasparenza e la responsabilit\u00e0 nell&#8217;utilizzo di tali sistemi.<\/p>\n\n\n\n<p>Ci\u00f2 dovrebbe includere la pubblicazione di rapporti sulla trasparenza che contengono informazioni rilevanti per tutte le nuove versioni significative dei sistemi avanzati di intelligenza artificiale. <\/p>\n\n\n\n<p>Le organizzazioni devono rendere le informazioni presenti nei rapporti sulla trasparenza sufficientemente chiare e comprensibili, in modo da consentire agli operatori e agli utenti di interpretare in modo appropriato e pertinente i risultati del modello\/sistema e di utilizzarlo in modo adeguato. <\/p>\n\n\n\n<p>Inoltre, i rapporti sulla trasparenza devono essere supportati e basati su una documentazione solida dei processi.<\/p>\n\n\n\n<p>4. \u00c8 importante lavorare per una condivisione responsabile delle informazioni e la segnalazione degli incidenti tra le organizzazioni che sviluppano sistemi avanzati di intelligenza artificiale. Questo dovrebbe coinvolgere non solo l&#8217;industria, ma anche i governi, la societ\u00e0 civile e il mondo accademico, al fine di garantire un utilizzo sicuro ed etico dell&#8217;IA.<\/p>\n\n\n\n<p>Ci\u00f2 che \u00e8 importante considerare \u00e8 la responsabile condivisione delle informazioni relative all&#8217;Intelligenza Artificiale. <\/p>\n\n\n\n<p>Queste informazioni possono includere rapporti di valutazione, informazioni sui rischi per la sicurezza e l\u2019incolumit\u00e0, capacit\u00e0 pericolose, previste o non intenzionali e tentativi degli attori dell\u2019IA di eludere le salvaguardie durante tutto il ciclo di vita dell\u2019IA. <\/p>\n\n\n\n<p>\u00c8 fondamentale tenere in considerazione tali aspetti per garantire un utilizzo sicuro ed efficace dell&#8217;Intelligenza Artificiale.<\/p>\n\n\n\n<p>5. Sviluppare, implementare e divulgare politiche di governance e gestione del rischio in materia di Intelligenza Artificiale (IA), basate su un approccio basato sul rischio, al fine di garantire la sicurezza dei sistemi avanzati di IA. <\/p>\n\n\n\n<p>Queste politiche dovrebbero includere anche misure di mitigazione del rischio, come politiche sulla privacy e altre misure di sicurezza. In particolare, queste politiche sono importanti per le organizzazioni che sviluppano sistemi avanzati di IA, in quanto questi sistemi possono presentare rischi significativi per la sicurezza dei dati e la privacy degli utenti.<\/p>\n\n\n\n<p>Questo implica la condivisione, se opportuno, delle politiche sulla privacy, anche per quanto riguarda i dati personali, i feedback degli utenti e i risultati avanzati del sistema di intelligenza artificiale. <\/p>\n\n\n\n<p>Le organizzazioni dovrebbero stabilire e divulgare le proprie politiche di governance dell&#8217;IA e i meccanismi organizzativi per attuare tali politiche in conformit\u00e0 con un approccio basato sul rischio. <\/p>\n\n\n\n<p>Ci\u00f2 dovrebbe includere processi di responsabilit\u00e0 e governance per valutare e mitigare i rischi, ove possibile, durante l&#8217;intero ciclo di vita dell&#8217;IA.<\/p>\n\n\n\n<p>6. Effettuare investimenti e implementare controlli di sicurezza robusti per garantire la protezione fisica e informatica durante tutte le fasi del ciclo di vita dell&#8217;Intelligenza Artificiale, compresa la difesa dalle minacce interne.  La sicurezza dei modelli e degli algoritmi, dei server e dei set di dati \u00e8 fondamentale per garantire la protezione dei pesi. Per questo motivo, sono necessarie misure di sicurezza operative per proteggere le informazioni e controlli di accesso informatico e fisico adeguati.<\/p>\n\n\n\n<p>7. Per garantire l&#8217;affidabilit\u00e0 dell&#8217;autenticazione e della provenienza dei contenuti generati dall&#8217;Intelligenza Artificiale, \u00e8 importante sviluppare e implementare meccanismi specifici.  <\/p>\n\n\n\n<p>Una possibile soluzione tecnica per garantire la trasparenza e l&#8217;affidabilit\u00e0 dei contenuti generati dall&#8217;Intelligenza Artificiale (IA) \u00e8 l&#8217;utilizzo di filigrane o di altre tecniche di identificazione. <\/p>\n\n\n\n<p>Gli sviluppatori dovrebbero divulgare pubblicamente le capacit\u00e0 e le limitazioni dei loro modelli, insieme agli ambiti di utilizzo appropriato e inappropriato. Inoltre, per garantire l&#8217;autenticit\u00e0 dei contenuti, si richiede l&#8217;implementazione di meccanismi di autenticazione come la creazione di filigrane digitali per identificare il testo, le immagini o i video generati dalle intelligenze artificiali. <\/p>\n\n\n\n<p>Le organizzazioni dovrebbero sviluppare strumenti o API per consentire agli utenti di determinare se particolari contenuti sono stati creati con il loro sistema di intelligenza artificiale avanzato, ad esempio tramite filigrane digitali.<\/p>\n\n\n\n<p>8. \u00c8 importante dare la massima priorit\u00e0 alla ricerca per individuare misure di mitigazione efficaci che possano ridurre i rischi per la societ\u00e0, la sicurezza e la protezione. Solo investendo in queste misure, infatti, si potr\u00e0 garantire una maggiore sicurezza per tutti. <\/p>\n\n\n\n<p>Ci\u00f2 include condurre, collaborare e investire in ricerche che supportino il progresso della sicurezza, della protezione e della fiducia nell\u2019intelligenza artificiale e affrontare i rischi principali, nonch\u00e9 investire nello sviluppo di strumenti di mitigazione adeguati.<\/p>\n\n\n\n<p>9. E&#8217; importante focalizzarsi sullo sviluppo di sistemi avanzati di intelligenza artificiale per affrontare le sfide globali come la crisi climatica, la salute globale e l&#8217;istruzione. Dare priorit\u00e0 a questo tipo di sviluppo potrebbe portare a soluzioni innovative e sostenibili per i problemi pi\u00f9 grandi del mondo.<\/p>\n\n\n\n<p>10. L&#8217;obiettivo \u00e8 quello di incoraggiare l&#8217;elaborazione e, se necessario, l&#8217;adozione di norme tecniche internazionali al fine di garantire l&#8217;armonizzazione delle regole tecniche a livello globale.<\/p>\n\n\n\n<p>Questi sforzi sono intrapresi per promuovere il progresso verso gli obiettivi di sviluppo sostenibile delle Nazioni Unite e per favorire lo sviluppo dell&#8217;intelligenza artificiale a beneficio globale. <\/p>\n\n\n\n<p>Le organizzazioni dovrebbero prestare particolare attenzione alla gestione responsabile dell&#8217;intelligenza artificiale, garantendo la sua affidabilit\u00e0 e centralit\u00e0 sull&#8217;uomo. Inoltre, dovrebbero sostenere iniziative di alfabetizzazione digitale per garantire una diffusione equa e consapevole delle tecnologie digitali. <\/p>\n\n\n\n<p>Ci\u00f2 implica anche il contributo allo sviluppo e, se opportuno, all&#8217;uso di standard tecnici internazionali e delle migliori pratiche, compreso il watermarking, e la collaborazione con le organizzazioni per lo sviluppo degli standard (SDO).<\/p>\n\n\n\n<p>11. Garantire l&#8217;implementazione di adeguate misure di sicurezza per la gestione dei dati personali e della propriet\u00e0 intellettuale, al fine di prevenire accessi non autorizzati e proteggere tali informazioni da eventuali perdite o danni.<\/p>\n\n\n\n<p>Le organizzazioni sono fortemente incoraggiate ad adottare misure adeguate per gestire in modo efficace la qualit\u00e0 dei dati, compresi quelli relativi alla formazione e alla raccolta, al fine di contrastare eventuali pregiudizi dannosi. <\/p>\n\n\n\n<p>\u00c8 altres\u00ec fondamentale garantire una completa trasparenza riguardo ai set di dati sulla formazione, e le organizzazioni devono rispettare scrupolosamente i quadri giuridici applicabili.<\/p>\n\n\n\n<p>I principi guida elaborati dal G7 per la governance responsabile dell&#8217;intelligenza artificiale a livello globale comprendono diversi aspetti, tra cui la trasparenza e la responsabilit\u00e0 sociale.  <\/p>\n\n\n\n<p>Essi sono stati utilizzati come base per la creazione di un Codice di condotta volontario, che fornisce una guida dettagliata e pratica per le organizzazioni che sviluppano sistemi avanzati di intelligenza artificiale. <\/p>\n\n\n\n<p>La presidenza italiana del G7 ha l&#8217;obiettivo di arricchire ulteriormente queste linee guida, che sono aperte al contributo di tutti i paesi, del mondo accademico, degli affari e della societ\u00e0 civile. In un&#8217;epoca in cui l&#8217;AI ha un impatto sempre maggiore sulle nostre vite, \u00e8 fondamentale coinvolgere tutte le componenti della societ\u00e0 in questa delicata fase di definizione del perimetro di legalit\u00e0 della nuova tecnologia.<\/p>\n\n\n\n<p>L&#8217;obiettivo del G7 \u00e8 quello di creare uno strumento standard per il monitoraggio e il controllo condiviso dell&#8217;intelligenza artificiale (AI), basato principalmente sul rispetto dei diritti umani. <\/p>\n\n\n\n<p>L&#8217;uomo rimane al centro del sistema, e sar\u00e0 fondamentale prevedere i rischi e tracciare i processi decisionali. <\/p>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-la-revisione\">La revisione<\/h4>\n\n\n\n<p>Entrambi i documenti saranno soggetti a revisione e aggiornamento periodici, anche attraverso consultazioni multilaterali inclusive, per garantire che siano sempre adeguati e reattivi a questa tecnologia in rapida evoluzione. <\/p>\n\n\n\n<p>Le linee guida saranno riviste periodicamente per adattarsi alla rapida evoluzione della tecnologia e in consultazione con le parti interessate. Inoltre, i paesi del G7 stanno accelerando lo sviluppo di un quadro politico per promuovere l&#8217;attuazione del processo di Hiroshima, incluso un approccio basato su progetti. <\/p>\n\n\n\n<p>Questo codice di condotta \u00e8 stato creato per invitare le imprese e le istituzioni del settore a seguirlo e promuovere il rispetto di questa tabella di marcia attraverso la cooperazione e la consultazione con diversi organismi internazionali come il Partenariato globale sull&#8217;intelligenza artificiale (GPAI), l&#8217;Organizzazione per la cooperazione e lo sviluppo economico (OCSE), attori pubblici e privati e paesi che non fanno parte del G7.<\/p>\n\n\n\n<p> Il G7 ha invitato le organizzazioni che sviluppano sistemi avanzati di intelligenza artificiale ad aderire al Codice di condotta internazionale e i primi firmatari saranno presto annunciati.<\/p>\n\n\n\n<p>I principi enunciati sono di molto generici  e non forniscono molte indicazioni pratiche sulle migliori tecniche, sui requisiti minimi e sulle possibili sanzioni in caso di non conformit\u00e0. Inoltre, non viene menzionato alcun tipo di tecnologia per migliorare la privacy o le misure raccomandate per consentire agli utenti di avere maggior controllo sulla raccolta e il trattamento dei loro dati personali da parte dei sistemi di intelligenza artificiale. <\/p>\n\n\n\n<p>La Commissione Europea ha espresso un parere favorevole riguardo all&#8217;accordo raggiunto dal G7 sul codice di condotta per i principi guida internazionali sull&#8217;intelligenza artificiale (AI) e sul codice di condotta volontario per gli sviluppatori di intelligenza artificiale, nell&#8217;ambito del Processo di Hiroshima sull&#8217;intelligenza artificiale. <\/p>\n\n\n\n<p>L&#8217;obiettivo comune \u00e8 quello di promuovere lo sviluppo di sistemi di intelligenza artificiale sicuri e affidabili a livello internazionale, mantenendo sempre l&#8217;umanit\u00e0 al centro. <\/p>\n\n\n\n<p>I principi per le aziende e le organizzazioni coinvolte nello sviluppo di sistemi di intelligenza artificiale includono la supervisione di osservatori indipendenti su tutte le fasi del processo di sviluppo e lancio sul mercato, oltre alla garanzia che gli sviluppatori identifichino potenziali rischi di uso improprio e correggano tali vulnerabilit\u00e0.<\/p>\n\n\n\n<p> La questione dell&#8217;intelligenza artificiale \u00e8 di grande importanza per l&#8217;Italia, che assumer\u00e0 la presidenza del G7 a partire da gennaio 2024 e che prevede di dedicare particolare attenzione a questo tema durante il suo mandato.<\/p>\n\n\n\n<p>La Commissione UE ha annunciato che i principi etici per l&#8217;Intelligenza Artificiale (IA) e il codice di condotta volontario saranno integrati a livello internazionale, al fine di completare le norme giuridicamente vincolanti in fase di finalizzazione dall&#8217;UE nell&#8217;ambito della legge sull&#8217;IA. <\/p>\n\n\n\n<p>La presidente della Commissione europea, Ursula von der Leyen, ha sottoscritto la dichiarazione dei leader del G7 rilasciata dalla presidenza giapponese del G7 del 2023.<\/p>\n\n\n\n<p><em>&nbsp;\u201cI potenziali benefici dell\u2019intelligenza artificiale per i cittadini e per l\u2019economia sono enormi. Tuttavia, l\u2019accelerazione della capacit\u00e0 dell\u2019intelligenza artificiale comporta anche nuove sfide. Gi\u00e0 pioniere della regolamentazione con la legge sull\u2019intelligenza artificiale, l\u2019UE sta anche contribuendo ai controlli e alla governance dell\u2019intelligenza artificiale a livello globale. Sono lieta di accogliere i principi guida internazionali del G7 e il codice di condotta volontario, che riflettono i valori dell\u2019UE per promuovere un\u2019IA affidabile. Invito gli sviluppatori di intelligenza artificiale a firmare e attuare questo codice di condotta il prima possibile\u201d.<\/em><\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-conclusione-0\">Conclusione <\/h3>\n\n\n\n<p><strong>Ora inizia la fase in cui i principi e le linee guida dovranno essere calati nel mondo reale<\/strong>, con la consapevolezza che sar\u00e0 complesso trovare un equilibrio duraturo data la portata degli interessi in gioco.<\/p>\n\n\n\n<p>La normazione eccessiva sull&#8217;intelligenza artificiale rappresenta un ostacolo significativo al progresso e all&#8217;innovazione. Mentre \u00e8 fondamentale garantire che l&#8217;IA sia utilizzata in modo etico e responsabile, \u00e8 altrettanto importante non soffocare la sua evoluzione con regolamenti troppo restrittivi.<\/p>\n\n\n\n<p>Le normative dovrebbero essere strutturate in modo da favorire l&#8217;innovazione, non ostacolarla. L&#8217;approccio attuale rischia di rendere l&#8217;IA un campo di ricerca e sviluppo troppo costoso per molte organizzazioni, limitando cos\u00ec la diversit\u00e0 e la concorrenza. Inoltre, le norme troppo rigide possono impedire la libera esplorazione di nuove idee e concetti, limitando il potenziale dell&#8217;IA.<\/p>\n\n\n\n<p>\u00c8 necessario un equilibrio tra la protezione dei diritti individuali e l&#8217;incoraggiamento del progresso tecnologico. Le normative dovrebbero essere flessibili e adattabili, in grado di evolversi insieme alla tecnologia stessa. Solo in questo modo possiamo sfruttare appieno le potenzialit\u00e0 dell&#8217;intelligenza artificiale, senza compromettere i valori etici fondamentali.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img fetchpriority=\"high\" decoding=\"async\" width=\"1024\" height=\"576\" src=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/avv.-bozzo-1024x576.jpg\" alt=\"\" class=\"wp-image-3955\" srcset=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/avv.-bozzo-1024x576.jpg 1024w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/avv.-bozzo-300x169.jpg 300w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/avv.-bozzo-768x432.jpg 768w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/avv.-bozzo-1536x864.jpg 1536w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/avv.-bozzo-480x270.jpg 480w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/avv.-bozzo.jpg 1920w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\"><\/h3>\n","protected":false},"excerpt":{"rendered":"<p>\u00c8 stata una settimana intensa per coloro che seguono gli sviluppi nel campo della governance dell&#8217;intelligenza artificiale. Il 30 ottobre \u00e8 stato pubblicato l&#8217;atteso &#8220;executive order&#8221; di Biden sull&#8217;Intelligenza Artificiale. L&#8217;ordine esecutivo del presidente Biden mira a garantire la sicurezza, la protezione e la fiducia nell&#8217;uso dell&#8217;IA. Inoltre, il G7 ha emesso un codice di [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":3974,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[44,1],"tags":[160,197,191,194,193,198,190,199,192,201],"class_list":["post-3847","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-diritto-rovescio","category-non-categorizzato","tag-ai-act","tag-ai-safety-institute","tag-biden","tag-bletchley-declaration","tag-bletchley-park","tag-bletchley","tag-hiroshima","tag-meloni","tag-ordine-esecutivo-sullia","tag-yoshua-bengio"],"yoast_head":"<!-- This site is optimized with the Yoast SEO Premium plugin v23.3 (Yoast SEO v25.6) - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Washington - Londra - Hiroshima il mondo si ferma a parlare di intelligenza artificiale - PB Consulting<\/title>\n<meta name=\"description\" content=\"&quot;Scopri come tutti i paesi del mondo sono uniti per discutere l&#039;impatto e il futuro dell&#039;intelligenza artificiale. Un dibattito globale che modeller\u00e0 il corso della tecnologia e della societ\u00e0.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/il-mondo-si-ferma-per-parlare-di-intelligenza-artificiale\/\" \/>\n<meta property=\"og:locale\" content=\"en_US\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Washington - Londra - Hiroshima il mondo si ferma a parlare di intelligenza artificiale\" \/>\n<meta property=\"og:description\" content=\"&quot;Scopri come tutti i paesi del mondo sono uniti per discutere l&#039;impatto e il futuro dell&#039;intelligenza artificiale. Un dibattito globale che modeller\u00e0 il corso della tecnologia e della societ\u00e0.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/il-mondo-si-ferma-per-parlare-di-intelligenza-artificiale\/\" \/>\n<meta property=\"og:site_name\" content=\"PB Consulting\" \/>\n<meta property=\"article:author\" content=\"https:\/\/www.facebook.com\/alberto.bozzo.9\" \/>\n<meta property=\"article:published_time\" content=\"2023-11-07T23:57:02+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2023-11-07T23:57:04+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/0cbd888c-7495-45f5-bb8c-04fc3703ef55.jpeg\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"1024\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Alberto Bozzo\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Alberto Bozzo\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"37 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/il-mondo-si-ferma-per-parlare-di-intelligenza-artificiale\/\",\"url\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/il-mondo-si-ferma-per-parlare-di-intelligenza-artificiale\/\",\"name\":\"Washington - Londra - Hiroshima il mondo si ferma a parlare di intelligenza artificiale - PB Consulting\",\"isPartOf\":{\"@id\":\"https:\/\/www.consultingpb.com\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/il-mondo-si-ferma-per-parlare-di-intelligenza-artificiale\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/il-mondo-si-ferma-per-parlare-di-intelligenza-artificiale\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/0cbd888c-7495-45f5-bb8c-04fc3703ef55.jpeg\",\"datePublished\":\"2023-11-07T23:57:02+00:00\",\"dateModified\":\"2023-11-07T23:57:04+00:00\",\"author\":{\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50\"},\"description\":\"\\\"Scopri come tutti i paesi del mondo sono uniti per discutere l'impatto e il futuro dell'intelligenza artificiale. Un dibattito globale che modeller\u00e0 il corso della tecnologia e della societ\u00e0.\",\"breadcrumb\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/il-mondo-si-ferma-per-parlare-di-intelligenza-artificiale\/#breadcrumb\"},\"inLanguage\":\"en-US\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/il-mondo-si-ferma-per-parlare-di-intelligenza-artificiale\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/il-mondo-si-ferma-per-parlare-di-intelligenza-artificiale\/#primaryimage\",\"url\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/0cbd888c-7495-45f5-bb8c-04fc3703ef55.jpeg\",\"contentUrl\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/0cbd888c-7495-45f5-bb8c-04fc3703ef55.jpeg\",\"width\":1024,\"height\":1024},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/il-mondo-si-ferma-per-parlare-di-intelligenza-artificiale\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/www.consultingpb.com\/en\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Washington &#8211; Londra &#8211; Hiroshima il mondo si ferma a parlare di intelligenza artificiale\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/www.consultingpb.com\/#website\",\"url\":\"https:\/\/www.consultingpb.com\/\",\"name\":\"PB Consulting\",\"description\":\"\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/www.consultingpb.com\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"en-US\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50\",\"name\":\"Alberto Bozzo\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g\",\"caption\":\"Alberto Bozzo\"},\"sameAs\":[\"https:\/\/www.consultingpb.com\/\",\"https:\/\/www.facebook.com\/alberto.bozzo.9\",\"https:\/\/www.instagram.com\/ab_dirittorovescio\/\",\"https:\/\/www.linkedin.com\/in\/alberto-bozzo-57982b63\/\"],\"url\":\"https:\/\/www.consultingpb.com\/en\/blog\/author\/alberto\/\"}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"Washington - Londra - Hiroshima il mondo si ferma a parlare di intelligenza artificiale - PB Consulting","description":"\"Scopri come tutti i paesi del mondo sono uniti per discutere l'impatto e il futuro dell'intelligenza artificiale. Un dibattito globale che modeller\u00e0 il corso della tecnologia e della societ\u00e0.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/il-mondo-si-ferma-per-parlare-di-intelligenza-artificiale\/","og_locale":"en_US","og_type":"article","og_title":"Washington - Londra - Hiroshima il mondo si ferma a parlare di intelligenza artificiale","og_description":"\"Scopri come tutti i paesi del mondo sono uniti per discutere l'impatto e il futuro dell'intelligenza artificiale. Un dibattito globale che modeller\u00e0 il corso della tecnologia e della societ\u00e0.","og_url":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/il-mondo-si-ferma-per-parlare-di-intelligenza-artificiale\/","og_site_name":"PB Consulting","article_author":"https:\/\/www.facebook.com\/alberto.bozzo.9","article_published_time":"2023-11-07T23:57:02+00:00","article_modified_time":"2023-11-07T23:57:04+00:00","og_image":[{"width":1024,"height":1024,"url":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/0cbd888c-7495-45f5-bb8c-04fc3703ef55.jpeg","type":"image\/jpeg"}],"author":"Alberto Bozzo","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Alberto Bozzo","Est. reading time":"37 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/il-mondo-si-ferma-per-parlare-di-intelligenza-artificiale\/","url":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/il-mondo-si-ferma-per-parlare-di-intelligenza-artificiale\/","name":"Washington - Londra - Hiroshima il mondo si ferma a parlare di intelligenza artificiale - PB Consulting","isPartOf":{"@id":"https:\/\/www.consultingpb.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/il-mondo-si-ferma-per-parlare-di-intelligenza-artificiale\/#primaryimage"},"image":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/il-mondo-si-ferma-per-parlare-di-intelligenza-artificiale\/#primaryimage"},"thumbnailUrl":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/0cbd888c-7495-45f5-bb8c-04fc3703ef55.jpeg","datePublished":"2023-11-07T23:57:02+00:00","dateModified":"2023-11-07T23:57:04+00:00","author":{"@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50"},"description":"\"Scopri come tutti i paesi del mondo sono uniti per discutere l'impatto e il futuro dell'intelligenza artificiale. Un dibattito globale che modeller\u00e0 il corso della tecnologia e della societ\u00e0.","breadcrumb":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/il-mondo-si-ferma-per-parlare-di-intelligenza-artificiale\/#breadcrumb"},"inLanguage":"en-US","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/il-mondo-si-ferma-per-parlare-di-intelligenza-artificiale\/"]}]},{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/il-mondo-si-ferma-per-parlare-di-intelligenza-artificiale\/#primaryimage","url":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/0cbd888c-7495-45f5-bb8c-04fc3703ef55.jpeg","contentUrl":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/0cbd888c-7495-45f5-bb8c-04fc3703ef55.jpeg","width":1024,"height":1024},{"@type":"BreadcrumbList","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/il-mondo-si-ferma-per-parlare-di-intelligenza-artificiale\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/www.consultingpb.com\/en\/"},{"@type":"ListItem","position":2,"name":"Washington &#8211; Londra &#8211; Hiroshima il mondo si ferma a parlare di intelligenza artificiale"}]},{"@type":"WebSite","@id":"https:\/\/www.consultingpb.com\/#website","url":"https:\/\/www.consultingpb.com\/","name":"PB Consulting","description":"","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.consultingpb.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"en-US"},{"@type":"Person","@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50","name":"Alberto Bozzo","image":{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g","caption":"Alberto Bozzo"},"sameAs":["https:\/\/www.consultingpb.com\/","https:\/\/www.facebook.com\/alberto.bozzo.9","https:\/\/www.instagram.com\/ab_dirittorovescio\/","https:\/\/www.linkedin.com\/in\/alberto-bozzo-57982b63\/"],"url":"https:\/\/www.consultingpb.com\/en\/blog\/author\/alberto\/"}]}},"_links":{"self":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/3847","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/comments?post=3847"}],"version-history":[{"count":10,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/3847\/revisions"}],"predecessor-version":[{"id":3976,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/3847\/revisions\/3976"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/media\/3974"}],"wp:attachment":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/media?parent=3847"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/categories?post=3847"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/tags?post=3847"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}