{"id":3739,"date":"2023-11-01T22:33:04","date_gmt":"2023-11-01T22:33:04","guid":{"rendered":"https:\/\/www.consultingpb.com\/?p=3739"},"modified":"2023-11-01T22:33:06","modified_gmt":"2023-11-01T22:33:06","slug":"intelligenza-artificiale-leuropa-chiama-gli-stati-uniti-rispondono","status":"publish","type":"post","link":"https:\/\/www.consultingpb.com\/en\/blog\/diritto-rovescio\/intelligenza-artificiale-leuropa-chiama-gli-stati-uniti-rispondono\/","title":{"rendered":"Intelligenza artificiale: l&#8217;Europa chiama, gli Stati Uniti rispondono"},"content":{"rendered":"\n<figure class=\"wp-block-image size-large is-resized\"><img fetchpriority=\"high\" decoding=\"async\" width=\"1024\" height=\"1024\" src=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/DIRITTO-ROVESCIO-3-1024x1024.png\" alt=\"\" class=\"wp-image-3606\" style=\"aspect-ratio:1;width:338px;height:auto\" srcset=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/DIRITTO-ROVESCIO-3-1024x1024.png 1024w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/DIRITTO-ROVESCIO-3-300x300.png 300w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/DIRITTO-ROVESCIO-3-150x150.png 150w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/DIRITTO-ROVESCIO-3-768x768.png 768w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/DIRITTO-ROVESCIO-3-480x480.png 480w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/DIRITTO-ROVESCIO-3.png 1080w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-ordine-esecutivo-di-biden-per-regolare-l-intelligenza-artificiale\">Ordine esecutivo di Biden per regolare l\u2019intelligenza artificiale<\/h2>\n\n\n\n<p>Il 30 ottobre, il Presidente <strong>Joe Biden<\/strong> ha emesso un Decreto Esecutivo che rappresenta un importante passo avanti nella legislazione sull&#8217;Intelligenza Artificiale (IA) negli Stati Uniti<\/p>\n\n\n\n<p> Questa decisione arriva dopo mesi di frammentazione normativa, con la California in prima linea. <\/p>\n\n\n\n<p>Il Decreto Esecutivo abbraccia il principio dell'&#8221;innovazione responsabile&#8221; e presenta punti chiave che avranno un impatto significativo nel prossimo futuro. L&#8217;obiettivo \u00e8 non solo mantenere gli Stati Uniti in prima linea nel campo dell&#8217;IA, ma anche garantire che questa tecnologia venga utilizzata in modo responsabile, a vantaggio del pubblico e della sicurezza nazionale. <\/p>\n\n\n\n<p>L&#8217;<strong>ordine esecutivo<\/strong> \u00e8 stato annunciato il 31 ottobre 2023.<\/p>\n\n\n\n<p>Il documento \u00e8 un memorandum per i capi dei dipartimenti esecutivi e delle agenzie, che fornisce linee guida per la gestione dei rischi dell\u2019intelligenza artificiale (AI).\u00a0<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-il-memorandum\">\u00a0Il memorandum <\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li> incoraggia le agenzie a considerare i potenziali rischi associati all\u2019IA, come gli impatti sulla sicurezza, sui diritti civili, sulla privacy e sui diritti umani, e a promuovere e incorporare le migliori pratiche per la gestione del rischio dell\u2019IA, come quelle delineate nel National Institute of Standards and Technology (NIST) <\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li>delinea le azioni specifiche che le agenzie devono intraprendere, come il completamento di una valutazione dell\u2019impatto dell\u2019IA, la convocazione degli organi di governance dell\u2019IA dell\u2019agenzia e la documentazione dell\u2019implementazione delle pratiche di intelligenza artificiale da parte dell\u2019agenzia.<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li>sottolinea l\u2019importanza di considerare i potenziali rischi per le comunit\u00e0 svantaggiate e di garantire che i benefici dell\u2019IA superino i rischi e  fornisce inoltre linee guida per la qualit\u00e0 e l\u2019adeguatezza dei dati utilizzati nello sviluppo e nei test dell\u2019IA e per informare le persone dell\u2019uso dell\u2019IA che potrebbe influire sui loro diritti o opportunit\u00e0.<\/li>\n<\/ul>\n\n\n\n<p>L&#8217;obiettivo principale dell&#8217;ordine esecutivo \u00e8 quello di massimizzare l&#8217;efficienza delle operazioni governative attraverso l&#8217;utilizzo responsabile dell&#8217;Intelligenza Artificiale. <\/p>\n\n\n\n<p>Tuttavia, \u00e8 importante considerare i rischi associati all&#8217;uso di questa tecnologia, in particolare per quanto riguarda la sicurezza e i diritti dei cittadini. In questo modo, gli Stati Uniti possono mantenere un ruolo di leadership globale nella gestione dei rischi correlati all&#8217;Intelligenza Artificiale.<\/p>\n\n\n\n<p>Il documento introduce nuovi requisiti e direttive per le agenzie riguardo alla gestione, all&#8217;innovazione e alla mitigazione dei rischi dell&#8217;IA, inclusi specifici protocolli per minimizzare i rischi nell&#8217;utilizzo dell&#8217;IA che influiscono sui diritti e sulla sicurezza del pubblico.<\/p>\n\n\n\n<p>L&#8217;ordine mira a stabilire alcuni punti fermi e standard di sicurezza per lo sviluppo sicuro dell&#8217;IA, tenendo conto dei rischi della nuova tecnologia. <\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-gli-standard\">Gli standard<\/h2>\n\n\n\n<p>la sicurezza e la protezione dell&#8217;intelligenza artificiale;<\/p>\n\n\n\n<p>la protezione della privacy degli americani;<\/p>\n\n\n\n<p> la promozione dell&#8217;equit\u00e0 e dei diritti civili;<\/p>\n\n\n\n<p> la difesa dei consumatori e dei lavoratori;<\/p>\n\n\n\n<p> la promozione dell&#8217;innovazione e della concorrenza;<\/p>\n\n\n\n<p> l&#8217;avanzamento della leadership americana nel mondo e altro ancora<\/p>\n\n\n\n<p>L&#8217;ordine esecutivo firmato dal Presidente Joe Biden fornisce una guida per la posizione politica e strategica degli Stati Uniti sulla creazione, diffusione e utilizzo dei modelli di intelligenza artificiale. <\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-premessa\">Premessa<\/h2>\n\n\n\n<p><strong>L&#8217;intelligenza artificiale<\/strong> sta ottimizzando le operazioni e aumentando l&#8217;efficienza in tutto il governo federale, ma \u00e8 fondamentale che le agenzie la gestiscano in modo appropriato. Di conseguenza, questo memorandum introduce nuovi requisiti e direttive per le agenzie riguardo alla gestione, all&#8217;innovazione e alla mitigazione dei rischi dell&#8217;IA, inclusi specifici protocolli per minimizzare i rischi nell&#8217;utilizzo dell&#8217;IA che influiscono sui diritti e sulla sicurezza del pubblico.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-potenziare-la-gestione-dell-ia\">Potenziare la gestione dell&#8217;IA. <\/h2>\n\n\n\n<p>La gestione dei rischi associati all&#8217;IA e la promozione dell&#8217;innovazione necessitano di una gestione efficace dell&#8217;IA. <\/p>\n\n\n\n<p>Come stabilito dall&#8217;ordine esecutivo del presidente Biden del 30 ottobre 2023 (l'&#8221;Ordine Esecutivo sull&#8217;AI&#8221;), ogni agenzia deve nominare un Responsabile dell&#8217;IA (CAIO) entro 60 giorni dalla data di rilascio di questo memorandum. Il memorandum dettaglia i ruoli, le responsabilit\u00e0, l&#8217;esperienza richiesta, la posizione e le strutture di reportistica per i CAIO delle agenzie. Dal momento che l&#8217;intelligenza artificiale \u00e8 strettamente legata ad altre aree tecniche e politiche, tra cui dati e informazioni, \u00e8 fondamentale considerare questi collegamenti. <\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-favorire-l-innovazione-responsabile-nell-ambito-dell-intelligenza-artificiale\">Favorire l&#8217;innovazione responsabile nell&#8217;ambito dell&#8217;intelligenza artificiale. <\/h2>\n\n\n\n<p>Se utilizzata in modo responsabile, l&#8217;intelligenza artificiale pu\u00f2 migliorare l&#8217;efficienza delle operazioni dell&#8217;amministrazione federale. <\/p>\n\n\n\n<p>L&#8217;adozione dell&#8217;IA, inclusa l&#8217;IA generativa, richiede alle agenzie di acquisire le competenze necessarie per farlo con successo e responsabilit\u00e0. <\/p>\n\n\n\n<p>Il memorandum richiede che ogni agenzia identificata nel Chief Financial Officer (CFO) Act3 sviluppi una strategia aziendale per l&#8217;IA e fornisce anche consigli su come superare gli ostacoli all&#8217;uso responsabile dell&#8217;IA. <\/p>\n\n\n\n<p>Tra questi ostacoli ci sono le barriere legate all&#8217;infrastruttura IT, ai dati, alla sicurezza informatica, alla forza lavoro e alle sfide specifiche dell&#8217;IA generativa.<\/p>\n\n\n\n<p>Il National AI Research Resource \u00e8 una risorsa importante per la ricerca in ambito di Intelligenza Artificiale, che offre ai ricercatori e agli studenti l&#8217;accesso diretto a risorse e dati, anche attraverso finanziamenti diretti per lo sviluppo di metodologie di ricerca avanzate nei campi della salute e del cambiamento climatico. <\/p>\n\n\n\n<p>Inoltre, sono previste misure per fornire assistenza tecnica e risorse ai piccoli sviluppatori e imprenditori, con la Federal Trade Commission che fornisce supporto nella commercializzazione delle ultime scoperte da parte delle piccole imprese.<\/p>\n\n\n\n<p>Ci sono anche piani per allentare le restrizioni sull&#8217;immigrazione negli Stati Uniti, aprendo le porte agli esperti stranieri per motivi di studio e lavoro, attraverso una modernizzazione dei criteri per l&#8217;ottenimento del visto.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Obiettivi e Standard<\/h2>\n\n\n\n<p>Il governo degli Stati Uniti  richiede ai principali sviluppatori di intelligenza artificiale di condividere i risultati dei test di sicurezza e altre informazioni critiche con il governo prima della loro pubblicazione al pubblico. <\/p>\n\n\n\n<p>L&#8217;obiettivo  \u00e8 di definire le azioni da intraprendere per proteggere la popolazione dai potenziali rischi dell&#8217;intelligenza artificiale. <\/p>\n\n\n\n<p>Saranno stabiliti standard per garantire l&#8217;affidabilit\u00e0 e la sicurezza dell&#8217;AI, nonch\u00e9 standard per lo screening della sintesi biologica per impedire che l&#8217;AI venga utilizzata per realizzare materiali biologici pericolosi. <\/p>\n\n\n\n<p>Inoltre, verranno adottate misure per proteggere la popolazione stabilendo standard e pratiche che aiutino ad identificare i contenuti creati dall&#8217;AI e ad autenticare quelli creati dall&#8217;uomo. <\/p>\n\n\n\n<p>Verr\u00e0 introdotto anche un watermark per etichettare i contenuti AI e si utilizzer\u00e0 l&#8217;AI per identificare e correggere le vulnerabilit\u00e0 dei software.<\/p>\n\n\n\n<p> Infine, verr\u00e0 sviluppato un National Security Memorandum per garantire l&#8217;uso sicuro ed etico dell&#8217;AI da parte dei corpi militari e di intelligence USA.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Test e Sicurezza<\/h2>\n\n\n\n<p>In base all&#8217;ordine esecutivo, il National Institute of Standards and Technology (NIST) stabilir\u00e0 standard rigorosi per test approfonditi per garantire la sicurezza degli sviluppi di intelligenza artificiale prima del loro rilascio al pubblico.<\/p>\n\n\n\n<p> Il Dipartimento per la sicurezza interna applicher\u00e0 tali standard ai settori delle infrastrutture critiche e istituir\u00e0 <strong>l&#8217;AI Safety and Security Board.<\/strong><\/p>\n\n\n\n<p> Inoltre, il Defense Production Act richiede che gli sviluppatori di sistemi di intelligenza artificiale condividano i risultati dei loro test e altre informazioni critiche con il governo degli Stati Uniti, come richiesto dal primo punto. <\/p>\n\n\n\n<p>Questo passo \u00e8 significativo poich\u00e9 il controllo statale sugli asset industriali \u00e8 spesso visto con sfavore dalle grandi imprese.<\/p>\n\n\n\n<p> Infatti, nel 2011, il Presidente Obama ha usato il Defense Production Act per obbligare le aziende di telecomunicazioni a riferire sui componenti hardware e software di origine estera, a causa dei timori di spionaggio da parte della Cina.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Contenuti e Propriet\u00e0 Intellettuale<\/h2>\n\n\n\n<p>Il Dipartimento del Commercio degli Stati Uniti sta sviluppando linee guida per l&#8217;autenticazione dei contenuti generati dall&#8217;intelligenza artificiale e l&#8217;uso di filigrane per identificare gli articoli generati dall&#8217;IA.<\/p>\n\n\n\n<p> L&#8217;obiettivo \u00e8 quello di prevenire la diffusione di notizie false e manipolazioni, garantendo l&#8217;autenticit\u00e0 dei contenuti prodotti attraverso modelli e software basati sull&#8217;IA.<\/p>\n\n\n\n<p> L&#8217;ordinanza stabilisce inoltre i requisiti per i regolatori della propriet\u00e0 intellettuale e le forze dell&#8217;ordine federali per affrontare l&#8217;uso di opere protette da copyright nella formazione sull&#8217;intelligenza artificiale.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-protezione-della-privacy\">Protezione della privacy<\/h2>\n\n\n\n<p>L&#8217;ordine esecutivo si impegna a proteggere la privacy dei cittadini americani accelerando lo sviluppo e l&#8217;uso di tecniche di tutela basate sull&#8217;AI. <\/p>\n\n\n\n<p>Verranno potenziati gli strumenti crittografici e quelli per la protezione della privacy, mentre verranno sviluppate linee guida per le agenzie federali al fine di valutare l&#8217;efficacia delle tecniche di tutela della privacy. Inoltre, saranno valutati i metodi attraverso cui le agenzie raccolgono e utilizzano le informazioni commerciali disponibili.<\/p>\n\n\n\n<p>L&#8217;ordine esecutivo prevede l&#8217;adozione di una legge bipartisan che metta l&#8217;accento sulla prevenzione, attraverso lo sviluppo di metodologie che proteggano i dati personali fin dall&#8217;inizio, senza interferire con il processo di addestramento dei modelli di intelligenza artificiale (AI).<\/p>\n\n\n\n<p>Per quanto riguarda la commercializzazione dei dati, considerati una risorsa di crescente importanza economica, l&#8217;ordine esecutivo prevede un&#8217;approfondita analisi delle modalit\u00e0 con cui tali dati vengono introdotti sul mercato.<\/p>\n\n\n\n<p>Questo processo di valutazione mira a garantire che la commercializzazione dei dati sia rispettosa degli standard etici e legali, preservando la privacy dei cittadini. Il modello di &#8220;privacy-preserving&#8221; rappresenta un notevole passo avanti per un paese che \u00e8 stato largamente anticipato dall&#8217;Unione Europea su tali questioni.<\/p>\n\n\n\n<p>Nonostante talvolta le politiche europee possano apparire caratterizzate da eccessiva burocrazia e complessit\u00e0, bisogna ammettere che l&#8217;Unione Europea ha dimostrato una leadership indiscutibile nell&#8217;affrontare le sfide legate alla privacy. La globalizzazione dei timori, anche grazie all&#8217;ordine esecutivo di Biden, contribuisce in modo significativo a ridimensionare le critiche che erano state rivolte alle autorit\u00e0 di vigilanza nazionali, accusate in passato di interventismo eccessivo.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Diritti civili<\/h2>\n\n\n\n<p>L&#8217;Ordine Esecutivo dell&#8217;amministrazione Biden-Harris si impegna a combattere la discriminazione algoritmica e a identificare e perseguire le violazioni dei diritti civili legate all&#8217;Intelligenza Artificiale.<\/p>\n\n\n\n<p> Il principale obiettivo \u00e8 quello di sviluppare le migliori pratiche per l&#8217;utilizzo dell&#8217;IA nelle sentenze e di evitare il rischio di sviluppare bias cognitivi che possono portare a discriminazioni in settori essenziali come la giustizia, la sanit\u00e0 e l&#8217;edilizia residenziale, anche senza la volont\u00e0 dell&#8217;IA.<\/p>\n\n\n\n<p>Per prevenire questo tipo di discriminazioni, l&#8217;amministrazione Biden-Harris ha deciso di fornire linee guida anti-discriminazione ai proprietari e ai contractor federali per garantire il diritto alla casa. <\/p>\n\n\n\n<p>Inoltre, nel contesto giuridico-processuale, si promuove lo sviluppo di best practices per l&#8217;utilizzo dell&#8217;Intelligenza Artificiale in sentenze, procedimenti cautelari, fase preliminare e detenzione, al fine di evitare che l&#8217;origine geografica o l&#8217;appartenenza etnica di un individuo possano portare a iniquit\u00e0 applicative. <\/p>\n\n\n\n<p>Queste misure sono particolarmente importanti, poich\u00e9 l&#8217;impiego dell&#8217;IA sar\u00e0 esteso oltre il sistema COMPAS e sar\u00e0 necessario garantire l&#8217;equit\u00e0 e i diritti dei cittadini.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Difesa dei consumatori e lavoro<\/h2>\n\n\n\n<p>L&#8217;Ordine Esecutivo promuove l&#8217;utilizzo responsabile dell&#8217;Intelligenza Artificiale (AI) nel settore sanitario e nello sviluppo dei farmaci. Inoltre, si intende implementare l&#8217;AI nel settore dell&#8217;istruzione per migliorare l&#8217;apprendimento degli studenti.<\/p>\n\n\n\n<p> L&#8217;obiettivo \u00e8 quello di ridurre i danni e massimizzare i benefici dell&#8217;AI per i lavoratori, tenendo in considerazione i problemi degli spostamenti, dell&#8217;equit\u00e0, della salute e della sicurezza sul posto di lavoro. <\/p>\n\n\n\n<p>Il report sui potenziali impatti dell&#8217;AI sul mercato del lavoro \u00e8 un tema centrale legato allo sviluppo dell&#8217;Intelligenza Artificiale Generativa. <\/p>\n\n\n\n<p>L&#8217;implementazione di modelli di IA potrebbe sostituire alcune mansioni, come il doppiaggio, la traduzione, il customer service e la correzione di bozze, con conseguente riduzione delle opportunit\u00e0 lavorative in questi settori.<\/p>\n\n\n\n<p> L&#8217;azienda Do Not Pay prevede che persino gli avvocati potrebbero essere sostituiti in futuro da modelli di IA. <\/p>\n\n\n\n<p>Per questo motivo, \u00e8 necessario garantire il supporto a tutti quei settori che subiranno una significativa riduzione delle opportunit\u00e0 lavorative. <\/p>\n\n\n\n<p>Inoltre, l&#8217;Ordine Esecutivo prevede che le valutazioni professionali non dovrebbero utilizzare modelli corrotti da bias. L&#8217;obiettivo \u00e8 quello di evitare che le decisioni di assunzione vengano influenzate da pregiudizi e discriminazioni. <\/p>\n\n\n\n<p>Nella visione ottimistica, l&#8217;integrazione dell&#8217;AI nel settore produttivo non dovrebbe rappresentare un elemento di concorrenza al ribasso salariale, ma piuttosto un motore di sviluppo economico e sociale.<\/p>\n\n\n\n<p>Le azioni di tutela dei consumatori, dei pazienti clinici e degli studenti prevedono che il Dipartimento della Salute e dei Servizi Umani riceva rapporti sull&#8217;uso non sicuro o dannoso delle pratiche mediche che coinvolgono l&#8217;IA.<\/p>\n\n\n\n<p> Inoltre, saranno proposti dei rimedi per garantire la sicurezza e la tutela dei soggetti coinvolti. <\/p>\n\n\n\n<p>Nel campo scolastico, si sta lavorando allo sviluppo di strumenti di apprendimento basati sull&#8217;intelligenza artificiale, come ad esempio tutor personalizzati in grado di soddisfare le esigenze educative degli alunni in maniera su misura.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Innovazione, concorrenza e leadership USA<\/h2>\n\n\n\n<p>L&#8217;ordine esecutivo prevede l&#8217;accesso a risorse e dati chiave sull&#8217;AI, ampliando le sovvenzioni sulla ricerca, in particolare nel campo sanitario e ambientale. <\/p>\n\n\n\n<p>Si garantir\u00e0 ai piccoli sviluppatori e imprenditori l&#8217;accesso alle risorse sull&#8217;AI, si instaureranno rapporti bilaterali e multilaterali per collaborare sull&#8217;AI e si svilupperanno standard sull&#8217;AI con partner internazionali e organizzazioni per la standardizzazione. <\/p>\n\n\n\n<p>Inoltre, si promuover\u00e0 lo sviluppo dell&#8217;AI all&#8217;estero in modo sicuro e responsabile, assumendo professionisti dell&#8217;AI.<\/p>\n\n\n\n<p>In conclusione, il nuovo ordine esecutivo emesso dal Presidente Joe Biden mira a porre gli Stati Uniti in una posizione di leadership nel campo dell&#8217;intelligenza artificiale, garantendo al contempo la sicurezza, la privacy, l&#8217;equit\u00e0 e i diritti civili. <\/p>\n\n\n\n<p>Si prevede che queste nuove regolamentazioni avranno un impatto significativo sullo sviluppo e l&#8217;utilizzo dell&#8217;intelligenza artificiale negli Stati Uniti.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-la-gestione-dei-pericoli-associati-all-applicazione-dell-intelligenza-artificiale\">La gestione dei pericoli associati all&#8217;applicazione dell&#8217;intelligenza artificiale <\/h2>\n\n\n\n<p>Nonostante le agenzie possano trarre enormi benefici dall&#8217;impiego dell&#8217;intelligenza artificiale, esse devono anche affrontare una serie di pericoli che ne derivano. <\/p>\n\n\n\n<p>Le agenzie devono rispettare gli attuali requisiti di gestione del rischio legati all&#8217;IA, e questo memorandum non li annulla o sostituisce. <\/p>\n\n\n\n<p>Al contrario, introduce nuovi requisiti specificamente orientati ai pericoli derivanti dalla dipendenza dall&#8217;intelligenza artificiale per guidare o implementare le decisioni e le azioni delle agenzie, soprattutto quando tale dipendenza influisce sui diritti e sulla sicurezza dei cittadini.<\/p>\n\n\n\n<p>Per mitigare tali pericoli, il memorandum esige che le agenzie applichino almeno alcune pratiche quando utilizzano strumenti che influiscono sui diritti e sulla sicurezza e che implicano l&#8217;uso dell&#8217;intelligenza artificiale. <\/p>\n\n\n\n<p>Inoltre, elenca specifiche tipologie di intelligenza artificiale che si presume abbiano un impatto sui diritti e sulla sicurezza. Infine, il memorandum fornisce una serie di suggerimenti per la gestione dei rischi dell&#8217;IA nel contesto delle gare d&#8217;appalto federali.<\/p>\n\n\n\n<p>Per quanto riguarda la formazione interna dell&#8217;amministrazione, il Presidente prevede di fornire una formazione diretta per tutti gli impiegati, indipendentemente dal loro livello, nei settori di interesse. Inoltre, si prevede di accelerare l&#8217;assunzione di professionisti nel campo dell&#8217;Intelligenza Artificiale, seguendo l&#8217;esempio di organizzazioni come U.S. Digital Service, U.S. Digital Corps e Presidential Innovation Fellowship.<\/p>\n\n\n\n<p>Nell&#8217;ordine, viene anche fornita una dichiarazione e viene elencato un elenco dei paesi con cui il governo ha gi\u00e0 collaborato in passato. <\/p>\n\n\n\n<p>Tra questi, viene menzionato il Processo di Hiroshima del G-7, le cui risultanze e linee guida sono state pubblicate il 30 Ottobre in concomitanza con l&#8217;ordine esecutivo. Ce ne occuperemo prossimamente sempre su queste pagine<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-il-termine-agenzia\"> il termine agenzia<\/h2>\n\n\n\n<p>Il termine \u201cagenzia\u201d \u00e8 definito come \u201cqualsiasi dipartimento esecutivo, dipartimento militare, ente governativo, ente controllato dal governo o altro istituto nel ramo esecutivo del governo (incluso l\u2019ufficio esecutivo del presidente), o qualsiasi agenzia di regolamentazione indipendente; la Commissione elettorale federale; i governi del Distretto di Columbia e dei territori e possedimenti degli Stati Uniti, e le loro varie suddivisioni; o strutture gestite da appaltatori di propriet\u00e0 del governo, compresi i laboratori impegnati in attivit\u00e0 di ricerca e produzione nel settore della difesa nazionale. <\/p>\n\n\n\n<p>Questo memorandum non sostituisce altre politiche federali pi\u00f9 generali che riguardano l&#8217;IA ma non si focalizzano specificamente su di essa, come le politiche relative alla gestione del rischio aziendale, alla gestione delle informazioni, alla privacy, alle attivit\u00e0 statistiche federali, all&#8217;informatica o alla sicurezza informatica.<\/p>\n\n\n\n<p>Le agenzie devono continuare a rispettare le politiche dell&#8217;OMB applicabili in altri settori pertinenti all&#8217;IA e coordinare la loro attuazione.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-rafforzare-la-governance-dell-intelligenza-artificiale\">Rafforzare la governance dell&#8217;Intelligenza Artificiale<\/h2>\n\n\n\n<p>Il capo di ciascuna agenzia <\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>\u00e8 responsabile di perseguire l\u2019innovazione dell\u2019IA e di garantire che la propria agenzia rispetti i requisiti di intelligenza artificiale previsti dalle leggi e dalle politiche pertinenti, compreso che i rischi derivanti dall\u2019uso dell\u2019IA da parte dell\u2019agenzia siano adeguatamente gestiti. <\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li> deve inoltre considerare le risorse finanziarie, umane, informative e infrastrutturali necessarie per svolgere tali responsabilit\u00e0 in modo efficace, inclusa la fornitura o la richiesta di risorse tramite il processo di bilancio per supportare le responsabilit\u00e0 identificate nel presente memorandum.<\/li>\n<\/ul>\n\n\n\n<p>Per migliorare la responsabilit\u00e0 per le questioni legate all\u2019IA, le agenzie devono designare un Chief AI Officer che hanno la responsabilit\u00e0 primaria<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-quali-sono-le-nuove-linee-guida-che-il-memorandum-richiede-alle-agenzie-governative-per-la-gestione-del-rischio-legato-all-ia\">Quali sono le nuove linee guida che il memorandum richiede alle agenzie governative per la gestione del rischio legato all&#8217;IA?<\/h2>\n\n\n\n<p>Il memorandum richiede alle agenzie governative di seguire pratiche minime quando utilizzano strumenti che possono incidere sui diritti e sulla sicurezza del pubblico e enumera categorie specifiche di IA che si presume abbiano un impatto sui diritti e sulla sicurezza. <\/p>\n\n\n\n<p>Inoltre, il memorandum stabilisce nuovi requisiti focalizzati specificamente sulla gestione del rischio legato all&#8217;utilizzo dell&#8217;IA da parte delle agenzie governative. <\/p>\n\n\n\n<p>Le agenzie devono continuare a rispettare le politiche OMB applicabili in altri settori rilevanti per l&#8217;intelligenza artificiale e coordinare con i funzionari e le organizzazioni responsabili esistenti all&#8217;interno delle loro agenzie. <\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-quali-sono-le-categorie-specifiche-di-ia-che-possono-avere-un-impatto-sui-diritti-e-sulla-sicurezza-del-pubblico\">Quali sono le categorie specifiche di IA che possono avere un impatto sui diritti e sulla sicurezza del pubblico?<\/h2>\n\n\n\n<p>Il memorandum elenca diverse categorie specifiche di IA che si presume abbiano un impatto sui diritti e sulla sicurezza del pubblico. Queste categorie includono:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li>Vita o benessere umano, inclusa la perdita di vite umane, lesioni gravi, danni fisici, danni biologici o chimici, rischi professionali, molestie o abusi, o salute mentale, compresi gli aspetti sia individuali che comunitari di questi danni;<\/li>\n\n\n\n<li>Clima o ambiente, compresi danni ambientali irreversibili o significativi;<\/li>\n\n\n\n<li>Beni o risorse strategici, comprese propriet\u00e0 di alto valore, informazioni contrassegnate come sensibili o classificate dal governo federale e propriet\u00e0 intellettuale;<\/li>\n\n\n\n<li>Comunit\u00e0 svantaggiate;<\/li>\n\n\n\n<li>Infrastrutture critiche, compresi i settori delle infrastrutture critiche definiti nella Presidenza Direttiva politica 21 (PPD-21), Sicurezza e resilienza delle infrastrutture critiche;<\/li>\n\n\n\n<li>L&#8217;IA utilizzata in un contesto in cui le persone interessate hanno una ragionevole aspettativa che un essere umano sia o debba essere il principale responsabile di una decisione o azione;<\/li>\n\n\n\n<li>L&#8217;evasione o la manipolazione da parte dell&#8217;avversario dell&#8217;intelligenza artificiale, come ad esempio un&#8217;entit\u00e0 che induce intenzionalmente l&#8217;intelligenza artificiale a classificare erroneamente un input.<\/li>\n<\/ol>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-come-il-memorandum-si-relaziona-alla-legge-sull-ia-nel-governo-del-2020\">Come il memorandum si relaziona alla legge sull&#8217;IA nel governo del 2020?<\/h2>\n\n\n\n<p>Il memorandum si relaziona alla legge sull&#8217;IA nel governo del 2020 fornendo ulteriori linee guida e requisiti per la gestione del rischio legato all&#8217;IA da parte delle agenzie governative.<\/p>\n\n\n\n<p>Mentre la legge sull&#8217;IA nel governo del 2020 ha stabilito la necessit\u00e0 di una governance efficace dell&#8217;IA, il memorandum specifica i ruoli e le responsabilit\u00e0 dei Chief AI Officer (CAIO) delle agenzie e richiede la presentazione di piani di conformit\u00e0 e l&#8217;inventario dei casi d&#8217;uso dell&#8217;IA. <\/p>\n\n\n\n<p>Inoltre, il memorandum si basa sull&#8217;ordine esecutivo del presidente Biden del 30 ottobre 2023 per promuovere la governance, l&#8217;innovazione e la gestione del rischio nell&#8217;uso dell&#8217;IA da parte delle agenzie governative. <\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-quali-sono-i-punti-principali-del-memorandum-per-i-capi-dei-dipartimenti-esecutivi-e-delle-agenzie\">Quali sono i punti principali del memorandum per i capi dei dipartimenti esecutivi e delle agenzie?<\/h2>\n\n\n\n<p>Il memorandum per i capi dei dipartimenti esecutivi e delle agenzie negli Stati Uniti ha lo scopo di promuovere la governance, l&#8217;innovazione e la gestione del rischio per l&#8217;uso dell&#8217;intelligenza artificiale (IA) da parte delle agenzie.&nbsp;Alcuni dei punti principali del memorandum includono:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Designazione di un Chief AI Officer (CAIO)<\/strong>: ogni agenzia deve designare un CAIO entro 60 giorni dalla data di emissione del memorandum.&nbsp;Il CAIO ha la responsabilit\u00e0 primaria di coordinare e governare le questioni relative all&#8217;IA all&#8217;interno dell&#8217;agenzia.<\/li>\n\n\n\n<li><strong>Sviluppo di una strategia di IA aziendale<\/strong>: ogni agenzia deve sviluppare una strategia di IA aziendale per aumentare la capacit\u00e0 di adottare con successo e responsabilmente l&#8217;IA nelle loro operazioni.<\/li>\n\n\n\n<li><strong>Gestione del rischio legato all&#8217;IA<\/strong>: le agenzie devono gestire i rischi derivanti dall&#8217;uso dell&#8217;IA, in particolare quelli che riguardano la sicurezza ei diritti del pubblico.&nbsp;Il memorandum richiede alle agenzie di seguire pratiche minime quando utilizzano strumenti che incidono sui diritti e sulla sicurezza.<\/li>\n\n\n\n<li><strong>Inventari dei casi d&#8217;uso dell&#8217;IA<\/strong>: ogni agenzia deve presentare annualmente un inventario dei suoi casi d&#8217;uso dell&#8217;IA a OMB e successivamente pubblicare una versione pubblica sul sito Web dell&#8217;agenzia.<\/li>\n\n\n\n<li><strong>Collaborazione con gli organismi di definizione degli standard di IA:<\/strong> le agenzie devono sostenere e coordinare il coinvolgimento della propria agenzia negli organismi di definizione degli standard di IA, come appropriato, e incoraggiare l&#8217;adozione da parte delle agenzie di standard consensuali volontari per l&#8217; IA.<\/li>\n\n\n\n<li><strong>Rinuncia ad applicazioni individuali di IA:<\/strong> le agenzie devono rinunciare ad applicazioni individuali di IA da elementi specifici del memorandum attraverso i processi dettagliati in tale sezione.<\/li>\n\n\n\n<li><strong>Promozione dell&#8217;innovazione responsabile dell&#8217;IA<\/strong>: se implementata in modo responsabile, l&#8217;IA pu\u00f2 migliorare le operazioni in tutto il governo federale.&nbsp;Le agenzie devono aumentare la loro capacit\u00e0 di adottare con successo e responsabilmente l&#8217;IA nelle loro operazioni.<\/li>\n<\/ol>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-quali-sono-le-pratiche-di-gestione-del-rischio-minimo-per-gli-usi-dell-ia-che-incidono-sui-diritti-del-pubblico-stabilite-dal-memorandum\">Quali sono le pratiche di gestione del rischio minimo per gli usi dell&#8217;ia che incidono sui diritti del pubblico stabilite dal memorandum?<\/h2>\n\n\n\n<p>Il memorandum per i capi dei dipartimenti esecutivi e delle agenzie negli Stati Uniti valutazione pratiche di gestione del rischio minimo per gli usi dell&#8217;intelligenza artificiale (IA) che incidono sui diritti del pubblico.&nbsp;Alcune delle pratiche di gestione del rischio minimo includono:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Identificazione dei rischi<\/strong>: le agenzie devono identificare i rischi derivanti dall&#8217;uso dell&#8217;IA, in particolare quelli che riguardano la sicurezza ei diritti del pubblico.<\/li>\n\n\n\n<li><strong>Valutazione dei rischi<\/strong>: le agenzie devono valutare i rischi derivanti dall&#8217;uso dell&#8217;IA e determinare se corrispondenti alla definizione di impatto sulla sicurezza o sui diritti.<\/li>\n\n\n\n<li><strong>Cessazione dell&#8217;IA non conforme<\/strong>: le agenzie devono smettere di utilizzare qualsiasi IA che incide sulla sicurezza o sui diritti del pubblico se non implementano le pratiche minime di gestione del rischio entro il 1\u00b0 agosto 2024.<\/li>\n\n\n\n<li><strong>Pubblicazione dei casi d&#8217;uso<\/strong>: le agenzie devono segnalare implicazioni i casi d&#8217;uso solo nella misura possibile e coerente con la legge applicabile e le linee guida governative, comprese quelle relative alla protezione della privacy e delle forze dell&#8217;ordine sensibili, alla sicurezza nazionale e ad altre informazioni protette.<\/li>\n<\/ol>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-quali-sono-le-ulteriori-migliori-pratiche-per-la-gestione-del-rischio-dell-ia-promosse-e-incorporate-dalle-agenzie\">Quali sono le ulteriori migliori pratiche per la gestione del rischio dell&#8217;ia promosse e incorporate dalle agenzie?<\/h2>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>AI Risk Management Framework del National Institute of Standards and Technology (NIST)<\/strong>: le agenzie sono incoraggiate a promuovere e incorporare, ove appropriato, ulteriori migliori pratiche per la gestione del rischio dell&#8217;IA, come quelle del NIST AI Risk Management Framework.<\/li>\n\n\n\n<li><strong>Valutazione dei rischi per le comunit\u00e0 svantaggiate<\/strong>: le agenzie dovrebbero prestare particolare attenzione ai potenziali rischi per le comunit\u00e0 svantaggiate.&nbsp;I benefici attesi dalla funzionalit\u00e0 dell&#8217;IA dovrebbero essere considerati rispetto ai suoi potenziali rischi e, se i benefici non superano significativamente i rischi, le agenzie non dovrebbero utilizzare l&#8217;IA.<\/li>\n\n\n\n<li><strong>Analisi qualitativa<\/strong>: se la quantificazione dei dati non \u00e8 fattibile, l&#8217;analisi qualitativa dovrebbe dimostrare un risultato positivo atteso, ad esempio miglioramenti dell&#8217;esperienza del cliente o delle interazioni umane, e dimostrare che l&#8217;IA \u00e8 adatta per svolgere il compito rilevante.<\/li>\n\n\n\n<li><strong>Valutazione della qualit\u00e0 dei dati:<\/strong> le agenzie devono valutare la qualit\u00e0 dei dati utilizzati nella progettazione, sviluppo, formazione, test e il funzionamento e la sua idoneit\u00e0 allo scopo previsto dell&#8217;IA.<\/li>\n\n\n\n<li><strong>Documentazione dei rischi:<\/strong> le agenzie dovrebbero documentare le parti interessate che saranno maggiormente colpite dall&#8217;uso del sistema e valutare le possibili modalit\u00e0 di fallimento e le misure, oltre a quelle pratiche minime, che l&#8217;agenzia adotter\u00e0 per contribuire a ridurre questi rischi.<\/li>\n<\/ol>\n\n\n\n<p><\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-quali-sono-le-ulteriori-iniziative-delle-agenzie-per-la-gestione-del-rischio-dell-ia-oltre-a-quelle-stabilite-dal-memorandum\">Quali sono le ulteriori iniziative delle agenzie per la gestione del rischio dell&#8217;ia oltre a quelle stabilite dal memorandum?<\/h2>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Formazione del personale<\/strong>: le agenzie stanno fornendo formazione al personale sull&#8217;IA e sui rischi associati all&#8217;uso dell&#8217;IA.&nbsp;La formazione dovrebbe includere la comprensione dei dati utilizzati dall&#8217;IA, la valutazione dei rischi e la gestione dei rischi.<\/li>\n\n\n\n<li><strong>Collaborazione con le parti interessate<\/strong>: le agenzie stanno collaborando con le parti interessate, come le comunit\u00e0 svantaggiate, per comprendere meglio i loro bisogni e preoccupazioni e per garantire che l&#8217;IA sia utilizzata in modo equo e responsabile.<\/li>\n\n\n\n<li><strong>Monitoraggio e valutazione<\/strong>: le agenzie stanno monitorando e valutando l&#8217;uso dell&#8217;IA per identificare i potenziali rischi e per garantire che l&#8217;IA sia utilizzata in modo responsabile e sicuro.<\/li>\n\n\n\n<li><strong>Trasparenza<\/strong>: le agenzie stanno lavorando per aumentare la trasparenza dell&#8217;uso dell&#8217;IA, ad esempio pubblicando informazioni sui casi d&#8217;uso dell&#8217;IA e sui dati utilizzati dall&#8217;IA.<\/li>\n\n\n\n<li><strong>Collaborazione con altre agenzie:<\/strong> le agenzie stanno collaborando con altre agenzie per condividere le migliori pratiche e le lezioni apprese sull&#8217;uso dell&#8217;IA e per garantire che l&#8217;IA sia utilizzata in modo coerente e responsabile in tutto il governo.<\/li>\n<\/ol>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-quali-sono-i-rischi-associati-all-intelligenza-artificiale\">Quali sono i rischi associati all&#8217;intelligenza artificiale ?<\/h2>\n\n\n\n<p>L&#8217;utilizzo dell&#8217;intelligenza artificiale (IA) comporta diversi rischi, tra cui:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Discriminazione algoritmica:<\/strong> l&#8217;IA pu\u00f2 perpetuare e amplificare le disuguaglianze esistenti, ad esempio attraverso la selezione di dati di addestramento non rappresentativi o l&#8217;uso di algoritmi che discriminano determinati gruppi di persone.<\/li>\n\n\n\n<li><strong>Impatti sulla sicurezza<\/strong>: l&#8217;IA pu\u00f2 causare danni fisici o materiali se non viene gestita correttamente, ad esempio se viene utilizzata in sistemi di sicurezza critici come quelli dei trasporti o della salute.<\/li>\n\n\n\n<li><strong>Impatti sui diritti civili e uman<\/strong>i: l&#8217;IA pu\u00f2 influenzare i diritti e le libert\u00e0 delle persone, ad esempio attraverso la sorveglianza di massa o la violazione della privacy.<\/li>\n\n\n\n<li><strong>Qualit\u00e0 e adeguatezza dei dati: <\/strong>l&#8217;IA dipende dai dati di addestramento, che possono essere incompleti, imprecisi o non rappresentativi, portando a risultati errati o discriminatori.<\/li>\n\n\n\n<li><strong>Dipendenza dall&#8217;IA<\/strong>: l&#8217;uso eccessivo dell&#8217;IA pu\u00f2 portare alla dipendenza da essa, con conseguente perdita di autonomia e capacit\u00e0 decisionale umana.<\/li>\n<\/ol>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-quali-sono-le-principali-cause-della-discriminazione-algoritmica-negli-stati-uniti\">Quali sono le principali cause della discriminazione algoritmica negli stati uniti?<\/h2>\n\n\n\n<p>Le cause della discriminazione negli Stati Uniti possono essere molteplici e complesse.&nbsp;Tuttavia, alcune delle principali cause includono:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Dati di addestramento sbagliati:<\/strong> gli algoritmi di apprendimento automatico si basano sui dati di addestramento per prendere decisioni.&nbsp;Se i dati di addestramento sono incompleti o non rappresentativi della popolazione, gli algoritmi possono discriminare determinati gruppi di persone.<\/li>\n\n\n\n<li><strong>Bias uman<\/strong>i: gli algoritmi possono riflettere i pregiudizi umani se i dati di addestramento sono stati raccolti da fonti che riflettono i pregiudizi umani.&nbsp;Ad esempio, se i dati di addestramento per un algoritmo di selezione del personale sono stati raccolti da un&#8217;azienda che ha una storia di discriminazione, l&#8217;algoritmo potrebbe discriminare le donne o le persone di colore.<\/li>\n\n\n\n<li><strong>Progettazione dell&#8217;algoritmo<\/strong>: la progettazione dell&#8217;algoritmo pu\u00f2 influenzare la discriminazione algoritmica.&nbsp;Ad esempio, se un algoritmo di valutazione del rischio di credito tiene conto della razza o del genere di una persona, pu\u00f2 discriminare le persone sulla base di queste caratteristiche.<\/li>\n\n\n\n<li><strong>Mancanza di trasparenza<\/strong>: la mancanza di trasparenza nell&#8217;implementazione degli algoritmi pu\u00f2 rendere difficile identificare la discriminazione algoritmica.&nbsp;Se le persone non sanno come funzionano gli algoritmi o quali dati vengono utilizzati per prendere decisioni, non possono contestare le decisioni discriminatorie.<\/li>\n<\/ol>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-quali-sono-gli-esempi-di-discriminazione-algoritmica\">Quali sono gli esempi di discriminazione algoritmica? <\/h2>\n\n\n\n<p>La discriminazioneca si verifica quando l&#8217;IA perpetua e amplifica le disuguaglianze esistenti, ad esempio attraverso la selezione di dati di addestramento non rappresentativi o l&#8217;uso di algoritmi che discriminano determinati gruppi di persone.&nbsp;Alcuni esempi di algoritmo discriminante includono:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Selezione di dati di addestramento non rappresentativi<\/strong>: se i dati utilizzati per addestrare l&#8217;IA non rappresentano adeguatamente tutte le categorie di persone, l&#8217;IA potrebbe non essere in grado di prendere decisioni giuste per tutti.&nbsp;Ad esempio, se un algoritmo di selezione del personale viene addestrato solo su candidati maschi, potrebbe discriminare le candidate femminili.<\/li>\n\n\n\n<li><strong>Algoritmi che discriminano:<\/strong> alcuni algoritmi possono essere progettati in modo da discriminare determinati gruppi di persone.&nbsp;Ad esempio, un algoritmo di prestito potrebbe discriminare le persone di colore, anche se non ci sono dati che dimostrano che le persone di colore sono meno affidabili dei candidati bianchi.<\/li>\n\n\n\n<li><strong>Dipendenza da proxy:<\/strong> l&#8217;IA pu\u00f2 dipendere da proxy, ovvero dati che non sono direttamente correlati alla decisione che deve prendere, ma che sono utilizzati come sostituti.&nbsp;Ad esempio, un algoritmo di selezione del personale potrebbe utilizzare il codice postale come proxy per la razza, il che potrebbe portare a discriminazione.<\/li>\n<\/ol>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-quali-sono-le-conseguenze-della-discriminazione-algoritmica-sulle-persone-coinvolte\">Quali sono le conseguenze della discriminazione algoritmica sulle persone coinvolte<\/h2>\n\n\n\n<p>La discriminazione pu\u00f2 avere conseguenze negative sulle persone coinvolte, tra cui:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Esclusione<\/strong>: se l&#8217;IA viene utilizzata per prendere decisioni importanti, come l&#8217;assunzione di personale o l&#8217;approvazione di prestiti, la discriminazione algoritmica pu\u00f2 portare all&#8217;esclusione di determinati gruppi di persone.<\/li>\n\n\n\n<li><strong>Ingiustizia<\/strong>: la discriminazione algoritmica pu\u00f2 portare a decisioni ingiuste e non basate sui meriti delle persone coinvolte.<\/li>\n\n\n\n<li><strong>Perpetuazione delle disuguaglianze<\/strong>: se l&#8217;IA perpetua le disuguaglianze esistenti, pu\u00f2 portare a un ulteriore svantaggio per i gruppi gi\u00e0 svantaggiati.<\/li>\n\n\n\n<li><strong>Perdita di fiducia<\/strong>: se le persone percepiscono che l&#8217;IA \u00e8 discriminatoria, possono perdere la fiducia nelle istituzioni che l&#8217;utilizzatore.<\/li>\n<\/ol>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-quali-sono-gli-esempi-di-discriminazione-algoritmica-che-hanno-avuto-conseguenze-sulle-persone-coinvolte\">Quali sono gli esempi di discriminazione algoritmica che hanno avuto conseguenze sulle persone coinvolte?<\/h2>\n\n\n\n<p>Ci sono diversi esempi di discriminazione algoritmica che hanno avuto conseguenze negative sulle persone coinvolte.&nbsp;Ad esempio:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Selezione del personale<\/strong>: alcuni algoritmi di selezione del personale sono stati trovati a discriminare le donne o le persone di colore, portando all&#8217;esclusione di questi gruppi.<\/li>\n\n\n\n<li><strong>Sistema di prestit<\/strong>o: alcuni algoritmi di valutazione del rischio di credito hanno discriminato le persone di colore, portando un accesso limitato al credito.<\/li>\n\n\n\n<li><strong>Sistema di giustizia penale<\/strong>: alcuni algoritmi utilizzati nel sistema di giustizia penale hanno discriminato le persone di colore, portando a decisioni ingiuste e disuguaglianze.<\/li>\n\n\n\n<li><strong>Sorveglianza di massa<\/strong>: l&#8217;uso di algoritmi per la sorveglianza di massa pu\u00f2 portare alla discriminazione di determinati gruppi di persone, ad esempio sulla base della razza o della religione.<\/li>\n\n\n\n<li><strong>Selezione delle assicurazioni:<\/strong> alcuni algoritmi utilizzati per la selezione delle assicurazioni hanno discriminato le persone sulla base della loro et\u00e0, genere o stato di salute.<\/li>\n<\/ol>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-quali-sono-le-conseguenze-sociali-della-discriminazione-algoritmica-sulle-persone-coinvolte\">Quali sono le conseguenze sociali della discriminazione algoritmica sulle persone coinvolte?<\/h2>\n\n\n\n<p>La discriminazione pu\u00f2 avere conseguenze sociali negative sulle persone coinvolte, tra cui:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Esclusione sociale<\/strong>: se l&#8217;IA viene utilizzata per prendere decisioni importanti, come l&#8217;assunzione di personale o l&#8217;approvazione di prestiti, la discriminazione algoritmica pu\u00f2 portare all&#8217;esclusione di determinati gruppi di persone, aumentando le disuguaglianze sociali.<\/li>\n\n\n\n<li><strong>Ingiustizia sociale<\/strong>: la discriminazione algoritmica pu\u00f2 portare a decisioni ingiuste e non basate sui meriti delle persone coinvolte, aumentando la percezione di ingiustizia sociale.<\/li>\n\n\n\n<li><strong>Perpetuazione delle disuguaglianze sociali:<\/strong> se l&#8217;IA perpetua le disuguaglianze esistenti, pu\u00f2 portare un ulteriore svantaggio per i gruppi gi\u00e0 svantaggiati, aumentando la polarizzazione sociale.<\/li>\n\n\n\n<li><strong>Perdita di fiducia nelle istituzioni<\/strong>: se le persone percepiscono che l&#8217;IA \u00e8 discriminatoria, possono perdere la fiducia nelle istituzioni che l&#8217;utilizzano, aumentando la sfiducia sociale.<\/li>\n<\/ol>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-quali-sono-gli-esempi-di-discriminazione-algoritmica-che-hanno-avuto-conseguenze-economiche-sulle-persone-coinvolte-negli-stati-uniti\">Quali sono gli esempi di discriminazione algoritmica che hanno avuto conseguenze economiche sulle persone coinvolte negli stati uniti?<\/h2>\n\n\n\n<p>Ci sono stati diversi studi e articoli che hanno evidenziato casi di discriminazione algoritmica negli Stati Uniti, i quali hanno avuto conseguenze economiche negative per le persone coinvolte.<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Un rapporto del 2018 del National Bureau of Economic Research<\/strong> ha rilevato che gli algoritmi utilizzati dalle piattaforme di ride-sharing come Uber e Lyft discriminano i conducenti di colore, pagandoli meno rispetto ai conducenti bianchi.<\/li>\n\n\n\n<li><strong>Un rapporto del 2019 del National Community Reinvestment Coalition<\/strong> ha rilevato che gli algoritmi utilizzati dalle banche per valutare il rischio di credito discriminano i residenti delle comunit\u00e0 a basso reddito e di colore, portando a un accesso limitato al credito.<\/li>\n\n\n\n<li><strong>Un rapporto del 2020 del Markup<\/strong> ha rilevato che gli algoritmi utilizzati dalle compagnie di assicurazione discriminano le persone sulla base della loro et\u00e0, genere e stato di salute, portando a un accesso limitato alle assicurazioni e limitando le loro opportunit\u00e0 economiche.<\/li>\n\n\n\n<li><strong>Un rapporto del 2021 del National Institute of Standards and Technology<\/strong> ha rilevato che gli algoritmi utilizzati dalle agenzie governative per la selezione del personale possono discriminare le donne e le persone di colore, portando all&#8217;esclusione di questi gruppi dal mercato del lavoro.<\/li>\n<\/ol>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-rimedi\">Rimedi<\/h2>\n\n\n\n<p>Per mitigare questi rischi, il memorandum per la gestione dei rischi dell&#8217;IA incoraggia le agenzie a considerare i potenziali rischi associati all&#8217;IA ea promuovere le migliori pratiche per la gestione del rischio dell&#8217;IA, come quelle delineate nel NIST AI Risk Management Framework .&nbsp;Inoltre, il memorandum fornisce linee guida specifiche per le agenzie, come la valutazione dell&#8217;impatto dell&#8217;IA, la creazione di organi di governance dell&#8217;IA e la documentazione delle pratiche di gestione del rischio dell&#8217;IA.&nbsp;Il memorandum sottolinea anche l&#8217;importanza di considerare i potenziali rischi per le comunit\u00e0 svantaggiate e di garantire che i benefici dell&#8217;IA superino i rischi.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-conclusioni\">Conclusioni <\/h2>\n\n\n\n<p>Le conclusioni cui perviene il memorandum sono le seguenti:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Le agenzie devono gestire in modo efficace l&#8217;utilizzo dell&#8217;IA<\/strong>, promuovendo la governance, l&#8217;innovazione e la gestione del rischio dell&#8217;IA.<\/li>\n\n\n\n<li><strong>Le agenzie devono seguire pratiche minime <\/strong>quando utilizzano strumenti che incidono sui diritti e sulla sicurezza, valutare i potenziali rischi per le comunit\u00e0 svantaggiate, fornire formazione al personale sull&#8217;IA e sui rischi associati all&#8217;uso dell&#8217;IA, collaborare con le parti interessate, monitorare e valutare l&#8217;uso dell&#8217;IA e aumentare la trasparenza dell&#8217;uso dell&#8217;IA.<\/li>\n\n\n\n<li><strong>Le agenzie devono seguire le politiche federali pi\u00f9 genera<\/strong>li che si applicano all&#8217;IA ma non si concentrano specificamente sull&#8217;IA, come le politiche relative alla gestione del rischio aziendale, alla gestione delle risorse informative, alla privacy, tecnologia (IT), sicurezza, privacy, diritti e libert\u00e0 civili, esperienza del cliente e gestione della forza lavoro.<\/li>\n\n\n\n<li><strong>Le agenzie devono designare un Chief AI Officer (CAIO) <\/strong>entro 60 giorni dall&#8217;emanazione del memorandum e identificare questi funzionari in OMB attraverso il processo di raccolta dati integrata di OMB.<\/li>\n\n\n\n<li><strong>Le agenzie devono sviluppare una strategia di IA aziendale<\/strong> e ridurre gli ostacoli all&#8217;uso responsabile dell&#8217;IA, comprese le barriere relative all&#8217;infrastruttura IT, ai dati, alla sicurezza informatica, alla forza lavoro e alle particolari sfide dell&#8217;IA generativa.<\/li>\n\n\n\n<li><strong>Le agenzie devono gestire una serie di rischi derivanti dall&#8217;uso dell&#8217;I<\/strong>A, tra cui rischi per la sicurezza, rischi per i diritti del pubblico, rischi per la privacy, rischi per la trasparenza e rischi per la responsabilit\u00e0.<\/li>\n<\/ol>\n\n\n\n<p>Unendo l&#8217;Executive Order degli Stati Uniti all&#8217;AI Act Europeo e al recente Codice di Condotta introdotto dal G-7, sembra che siano stati definiti le linee guida globali e i principi di sviluppo nel campo dell&#8217;Intelligenza Artificiale.<\/p>\n\n\n\n<p>A distanza di un anno dalla diffusione di massa dell\u2019IA Generativa, che ha reso centrale e pubblica la discussione sull\u2019Intelligenza Artificiale, alcune importanti questioni hanno trovato risposte esaustive.<\/p>\n\n\n\n<p><strong>Ora inizia la fase in cui i principi e le linee guida dovranno essere calati nel mondo reale<\/strong>, con la consapevolezza che sar\u00e0 complesso trovare un equilibrio duraturo data la portata degli interessi in gioco.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" width=\"1024\" height=\"576\" src=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/IL-CAFFE-DEL-MATTINO--1024x576.jpg\" alt=\"\" class=\"wp-image-3252\" srcset=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/IL-CAFFE-DEL-MATTINO--1024x576.jpg 1024w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/IL-CAFFE-DEL-MATTINO--300x169.jpg 300w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/IL-CAFFE-DEL-MATTINO--768x432.jpg 768w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/IL-CAFFE-DEL-MATTINO--1536x864.jpg 1536w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/IL-CAFFE-DEL-MATTINO--480x270.jpg 480w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/IL-CAFFE-DEL-MATTINO-.jpg 1920w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-\"><\/h2>\n\n\n\n<p><\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Ordine esecutivo di Biden per regolare l\u2019intelligenza artificiale Il 30 ottobre, il Presidente Joe Biden ha emesso un Decreto Esecutivo che rappresenta un importante passo avanti nella legislazione sull&#8217;Intelligenza Artificiale (IA) negli Stati Uniti Questa decisione arriva dopo mesi di frammentazione normativa, con la California in prima linea. Il Decreto Esecutivo abbraccia il principio dell&#8217;&#8221;innovazione [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":3747,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[44,1],"tags":[138,137,135,136],"class_list":["post-3739","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-diritto-rovescio","category-non-categorizzato","tag-ia-generativa","tag-intelligenza-artificiale","tag-joe-biden-intelligenza-artificiale","tag-ordine-esecutivo"],"yoast_head":"<!-- This site is optimized with the Yoast SEO Premium plugin v23.3 (Yoast SEO v25.6) - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Intelligenza artificiale: l&#039;Europa chiama, gli Stati Uniti rispondono - PB Consulting<\/title>\n<meta name=\"description\" content=\"Il presidente degli Stati Uniti Joe Biden ha firmato un esteso ordine esecutivo il 30 ottobre, con l&#039;intento di ampliare l&#039;utilizzo dell&#039;intelligenza artificiale da parte del governo federale degli Stati Uniti. L&#039;ordine esecutivo prevede anche il rafforzamento del controllo sull&#039;utilizzo dell&#039;intelligenza artificiale a fini commerciali. Il mandato comprende diverse disposizioni dirette alle agenzie federali, che dovranno essere attuate entro il prossimo anno.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/intelligenza-artificiale-leuropa-chiama-gli-stati-uniti-rispondono\/\" \/>\n<meta property=\"og:locale\" content=\"en_US\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Intelligenza artificiale: l&#039;Europa chiama, gli Stati Uniti rispondono\" \/>\n<meta property=\"og:description\" content=\"Il presidente degli Stati Uniti Joe Biden ha firmato un esteso ordine esecutivo il 30 ottobre, con l&#039;intento di ampliare l&#039;utilizzo dell&#039;intelligenza artificiale da parte del governo federale degli Stati Uniti. L&#039;ordine esecutivo prevede anche il rafforzamento del controllo sull&#039;utilizzo dell&#039;intelligenza artificiale a fini commerciali. Il mandato comprende diverse disposizioni dirette alle agenzie federali, che dovranno essere attuate entro il prossimo anno.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/intelligenza-artificiale-leuropa-chiama-gli-stati-uniti-rispondono\/\" \/>\n<meta property=\"og:site_name\" content=\"PB Consulting\" \/>\n<meta property=\"article:author\" content=\"https:\/\/www.facebook.com\/alberto.bozzo.9\" \/>\n<meta property=\"article:published_time\" content=\"2023-11-01T22:33:04+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2023-11-01T22:33:06+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/Intelligenza-artificiale-lEuropa-chiama-gli-Stati-Uniti-rispondono.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1920\" \/>\n\t<meta property=\"og:image:height\" content=\"1080\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Alberto Bozzo\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Alberto Bozzo\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"30 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/intelligenza-artificiale-leuropa-chiama-gli-stati-uniti-rispondono\/\",\"url\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/intelligenza-artificiale-leuropa-chiama-gli-stati-uniti-rispondono\/\",\"name\":\"Intelligenza artificiale: l'Europa chiama, gli Stati Uniti rispondono - PB Consulting\",\"isPartOf\":{\"@id\":\"https:\/\/www.consultingpb.com\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/intelligenza-artificiale-leuropa-chiama-gli-stati-uniti-rispondono\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/intelligenza-artificiale-leuropa-chiama-gli-stati-uniti-rispondono\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/Intelligenza-artificiale-lEuropa-chiama-gli-Stati-Uniti-rispondono.jpg\",\"datePublished\":\"2023-11-01T22:33:04+00:00\",\"dateModified\":\"2023-11-01T22:33:06+00:00\",\"author\":{\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50\"},\"description\":\"Il presidente degli Stati Uniti Joe Biden ha firmato un esteso ordine esecutivo il 30 ottobre, con l'intento di ampliare l'utilizzo dell'intelligenza artificiale da parte del governo federale degli Stati Uniti. L'ordine esecutivo prevede anche il rafforzamento del controllo sull'utilizzo dell'intelligenza artificiale a fini commerciali. Il mandato comprende diverse disposizioni dirette alle agenzie federali, che dovranno essere attuate entro il prossimo anno.\",\"breadcrumb\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/intelligenza-artificiale-leuropa-chiama-gli-stati-uniti-rispondono\/#breadcrumb\"},\"inLanguage\":\"en-US\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/intelligenza-artificiale-leuropa-chiama-gli-stati-uniti-rispondono\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/intelligenza-artificiale-leuropa-chiama-gli-stati-uniti-rispondono\/#primaryimage\",\"url\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/Intelligenza-artificiale-lEuropa-chiama-gli-Stati-Uniti-rispondono.jpg\",\"contentUrl\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/Intelligenza-artificiale-lEuropa-chiama-gli-Stati-Uniti-rispondono.jpg\",\"width\":1920,\"height\":1080},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/intelligenza-artificiale-leuropa-chiama-gli-stati-uniti-rispondono\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/www.consultingpb.com\/en\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Intelligenza artificiale: l&#8217;Europa chiama, gli Stati Uniti rispondono\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/www.consultingpb.com\/#website\",\"url\":\"https:\/\/www.consultingpb.com\/\",\"name\":\"PB Consulting\",\"description\":\"\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/www.consultingpb.com\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"en-US\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50\",\"name\":\"Alberto Bozzo\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g\",\"caption\":\"Alberto Bozzo\"},\"sameAs\":[\"https:\/\/www.consultingpb.com\/\",\"https:\/\/www.facebook.com\/alberto.bozzo.9\",\"https:\/\/www.instagram.com\/ab_dirittorovescio\/\",\"https:\/\/www.linkedin.com\/in\/alberto-bozzo-57982b63\/\"],\"url\":\"https:\/\/www.consultingpb.com\/en\/blog\/author\/alberto\/\"}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"Intelligenza artificiale: l'Europa chiama, gli Stati Uniti rispondono - PB Consulting","description":"Il presidente degli Stati Uniti Joe Biden ha firmato un esteso ordine esecutivo il 30 ottobre, con l'intento di ampliare l'utilizzo dell'intelligenza artificiale da parte del governo federale degli Stati Uniti. L'ordine esecutivo prevede anche il rafforzamento del controllo sull'utilizzo dell'intelligenza artificiale a fini commerciali. Il mandato comprende diverse disposizioni dirette alle agenzie federali, che dovranno essere attuate entro il prossimo anno.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/intelligenza-artificiale-leuropa-chiama-gli-stati-uniti-rispondono\/","og_locale":"en_US","og_type":"article","og_title":"Intelligenza artificiale: l'Europa chiama, gli Stati Uniti rispondono","og_description":"Il presidente degli Stati Uniti Joe Biden ha firmato un esteso ordine esecutivo il 30 ottobre, con l'intento di ampliare l'utilizzo dell'intelligenza artificiale da parte del governo federale degli Stati Uniti. L'ordine esecutivo prevede anche il rafforzamento del controllo sull'utilizzo dell'intelligenza artificiale a fini commerciali. Il mandato comprende diverse disposizioni dirette alle agenzie federali, che dovranno essere attuate entro il prossimo anno.","og_url":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/intelligenza-artificiale-leuropa-chiama-gli-stati-uniti-rispondono\/","og_site_name":"PB Consulting","article_author":"https:\/\/www.facebook.com\/alberto.bozzo.9","article_published_time":"2023-11-01T22:33:04+00:00","article_modified_time":"2023-11-01T22:33:06+00:00","og_image":[{"width":1920,"height":1080,"url":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/Intelligenza-artificiale-lEuropa-chiama-gli-Stati-Uniti-rispondono.jpg","type":"image\/jpeg"}],"author":"Alberto Bozzo","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Alberto Bozzo","Est. reading time":"30 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/intelligenza-artificiale-leuropa-chiama-gli-stati-uniti-rispondono\/","url":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/intelligenza-artificiale-leuropa-chiama-gli-stati-uniti-rispondono\/","name":"Intelligenza artificiale: l'Europa chiama, gli Stati Uniti rispondono - PB Consulting","isPartOf":{"@id":"https:\/\/www.consultingpb.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/intelligenza-artificiale-leuropa-chiama-gli-stati-uniti-rispondono\/#primaryimage"},"image":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/intelligenza-artificiale-leuropa-chiama-gli-stati-uniti-rispondono\/#primaryimage"},"thumbnailUrl":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/Intelligenza-artificiale-lEuropa-chiama-gli-Stati-Uniti-rispondono.jpg","datePublished":"2023-11-01T22:33:04+00:00","dateModified":"2023-11-01T22:33:06+00:00","author":{"@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50"},"description":"Il presidente degli Stati Uniti Joe Biden ha firmato un esteso ordine esecutivo il 30 ottobre, con l'intento di ampliare l'utilizzo dell'intelligenza artificiale da parte del governo federale degli Stati Uniti. L'ordine esecutivo prevede anche il rafforzamento del controllo sull'utilizzo dell'intelligenza artificiale a fini commerciali. Il mandato comprende diverse disposizioni dirette alle agenzie federali, che dovranno essere attuate entro il prossimo anno.","breadcrumb":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/intelligenza-artificiale-leuropa-chiama-gli-stati-uniti-rispondono\/#breadcrumb"},"inLanguage":"en-US","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/intelligenza-artificiale-leuropa-chiama-gli-stati-uniti-rispondono\/"]}]},{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/intelligenza-artificiale-leuropa-chiama-gli-stati-uniti-rispondono\/#primaryimage","url":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/Intelligenza-artificiale-lEuropa-chiama-gli-Stati-Uniti-rispondono.jpg","contentUrl":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/11\/Intelligenza-artificiale-lEuropa-chiama-gli-Stati-Uniti-rispondono.jpg","width":1920,"height":1080},{"@type":"BreadcrumbList","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/intelligenza-artificiale-leuropa-chiama-gli-stati-uniti-rispondono\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/www.consultingpb.com\/en\/"},{"@type":"ListItem","position":2,"name":"Intelligenza artificiale: l&#8217;Europa chiama, gli Stati Uniti rispondono"}]},{"@type":"WebSite","@id":"https:\/\/www.consultingpb.com\/#website","url":"https:\/\/www.consultingpb.com\/","name":"PB Consulting","description":"","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.consultingpb.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"en-US"},{"@type":"Person","@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50","name":"Alberto Bozzo","image":{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g","caption":"Alberto Bozzo"},"sameAs":["https:\/\/www.consultingpb.com\/","https:\/\/www.facebook.com\/alberto.bozzo.9","https:\/\/www.instagram.com\/ab_dirittorovescio\/","https:\/\/www.linkedin.com\/in\/alberto-bozzo-57982b63\/"],"url":"https:\/\/www.consultingpb.com\/en\/blog\/author\/alberto\/"}]}},"_links":{"self":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/3739","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/comments?post=3739"}],"version-history":[{"count":3,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/3739\/revisions"}],"predecessor-version":[{"id":3749,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/3739\/revisions\/3749"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/media\/3747"}],"wp:attachment":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/media?parent=3739"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/categories?post=3739"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/tags?post=3739"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}