{"id":3280,"date":"2023-10-23T23:24:20","date_gmt":"2023-10-23T23:24:20","guid":{"rendered":"https:\/\/www.consultingpb.com\/?p=3280"},"modified":"2023-10-23T23:24:22","modified_gmt":"2023-10-23T23:24:22","slug":"decalogo-per-utilizzo-ai-in-campo-sanitario","status":"publish","type":"post","link":"https:\/\/www.consultingpb.com\/en\/blog\/diritto-rovescio\/decalogo-per-utilizzo-ai-in-campo-sanitario\/","title":{"rendered":"DECALOGO PER UTILIZZO AI IN CAMPO SANITARIO"},"content":{"rendered":"\n<figure class=\"wp-block-image size-large is-resized\"><img fetchpriority=\"high\" decoding=\"async\" width=\"1024\" height=\"1024\" src=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/dirittorovescio-1-1024x1024.png\" alt=\"\" class=\"wp-image-3267\" style=\"aspect-ratio:1;width:227px;height:auto\" srcset=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/dirittorovescio-1-1024x1024.png 1024w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/dirittorovescio-1-300x300.png 300w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/dirittorovescio-1-150x150.png 150w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/dirittorovescio-1-768x768.png 768w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/dirittorovescio-1-480x480.png 480w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/dirittorovescio-1.png 1080w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<h2 class=\"wp-block-heading has-vivid-cyan-blue-background-color has-background\"><strong>L\u2019OMS e la regolamentazione dell\u2019intelligenza artificiale per la salute<\/strong>\u00a0<\/h2>\n\n\n\n<p>Grazie ai dati sanitari sempre pi\u00f9 disponibili e ai progressi rapidi delle tecniche di analisi, come il machine learning, la logica e le statistiche, l&#8217;uso dell&#8217;intelligenza artificiale potrebbe rivoluzionare il settore sanitario, migliorando la qualit\u00e0 dell&#8217;assistenza sanitaria e rendendola pi\u00f9 efficiente.<\/p>\n\n\n\n<p><strong>L&#8217;OMS<\/strong> ha riconosciuto il grande potenziale dell&#8217;Intelligenza Artificiale (IA) nel campo della sanit\u00e0. <\/p>\n\n\n\n<p>Grazie all&#8217;IA, \u00e8 possibile migliorare notevolmente i risultati sanitari attraverso diversi modi. <\/p>\n\n\n\n<p>a) In primo luogo, l&#8217;IA pu\u00f2 rafforzare gli <strong>studi clinici<\/strong>, consentendo una migliore analisi e interpretazione dei dati raccolti;<\/p>\n\n\n\n<p>b)  l&#8217;IA pu\u00f2 migliorare la <strong>diagnosi medica<\/strong>, aiutando i medici a identificare in modo pi\u00f9 preciso e tempestivo le malattie e le condizioni dei pazienti. <\/p>\n\n\n\n<p>c) grazie all&#8217;elaborazione dei dati e all&#8217;apprendimento automatico, l&#8217;IA pu\u00f2 fornire <strong>raccomandazioni personalizzate<\/strong> e consigli per la gestione della salute. <\/p>\n\n\n\n<p>d) un altro vantaggio dell&#8217;IA \u00e8 la possibilit\u00e0 di <strong>integrare le conoscenze<\/strong>, le abilit\u00e0 e le competenze degli operatori sanitari.<\/p>\n\n\n\n<p>L&#8217;IA pu\u00f2 essere utilizzata per<strong> analizzare grandi quantit\u00e0 di dati e identificare modelli e tendenze nascoste<\/strong>. Queste informazioni possono essere utilizzate per migliorare la formazione e l&#8217;aggiornamento dei professionisti sanitari, consentendo loro di essere costantemente aggiornati sulle ultime scoperte e pratiche migliori. <\/p>\n\n\n\n<p>e) l&#8217;IA pu\u00f2 portare a un <strong>trattamento pi\u00f9 efficace e a una migliore cura di s\u00e9 per i pazienti<\/strong>. Ci\u00f2 permette di adattare le cure in base alle esigenze specifiche di ogni individuo, migliorando cos\u00ec l&#8217;efficacia complessiva dell&#8217;assistenza sanitaria.<\/p>\n\n\n\n<p>f)  l&#8217;IA pu\u00f2 essere utilizzata <strong>per interpretare scansioni retiniche e immagini radiologiche,<\/strong> fornendo una diagnosi preliminare che pu\u00f2 essere successivamente confermata da un medico specialista. Questo pu\u00f2 aiutare a ridurre i tempi di attesa per una diagnosi accurata e garantire che i pazienti ricevano il trattamento adeguato nel minor tempo possibile.<\/p>\n\n\n\n<p>L&#8217;Organizzazione Mondiale della Sanit\u00e0 <strong>(OMS) ha recentemente pubblicato una nuova pubblicazione che fornisce una serie di considerazioni normative fondamentali sull&#8217;utilizzo dell&#8217;intelligenza artificiale (AI) nel campo della salute<\/strong>.<\/p>\n\n\n\n<p>La pubblicazione sottolinea l&#8217;importanza di garantire la sicurezza e l&#8217;efficacia dei sistemi di intelligenza artificiale, in particolare quelli utilizzati in campo medico. <\/p>\n\n\n\n<p>\u00c8 fondamentale che <strong>tali sistemi siano rapidamente disponibili<\/strong> per coloro che ne hanno bisogno, promuovendo al tempo stesso un dialogo costante tra le parti interessate, tra cui sviluppatori, regolatori, produttori, operatori sanitari e pazienti.<\/p>\n\n\n\n<p>Quando si utilizzano dati sanitari, i sistemi di intelligenza artificiale potrebbero a<strong>vere accesso a informazioni personali sensibili<\/strong>, necessitando di solidi <strong>quadri giuridici e normativi<\/strong> per salvaguardare la privacy, la sicurezza e l\u2019integrit\u00e0, che questa pubblicazione mira a contribuire a creare e mantenere.\u00a0<\/p>\n\n\n\n<p><em>\u201cL\u2019intelligenza artificiale rappresenta una grande promessa per la salute, ma comporta anche gravi sfide, tra cui la raccolta di dati non etici, minacce alla sicurezza informatica e l\u2019amplificazione di pregiudizi o disinformazione\u201d,<\/em> ha affermato il dottor Tedros Adhanom Ghebreyesus, direttore generale dell\u2019OMS. \u201c<em>Questa nuova guida aiuter\u00e0 i paesi a regolamentare l\u2019IA in modo efficace, per sfruttarne il potenziale, sia nel trattamento del cancro che nel rilevamento della tubercolosi, riducendo al minimo i rischi\u201d. \u00a0<\/em><\/p>\n\n\n\n<p>la pubblicazione delinea <strong>sei aree per la regolamentazione dell\u2019IA<\/strong> per la salute.\u00a0<\/p>\n\n\n\n<figure class=\"wp-block-image size-large is-resized\"><img decoding=\"async\" width=\"1024\" height=\"1024\" src=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Progetto-senza-titolo-1024x1024.png\" alt=\"\" class=\"wp-image-3352\" style=\"aspect-ratio:1;width:263px;height:auto\" srcset=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Progetto-senza-titolo-1024x1024.png 1024w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Progetto-senza-titolo-300x300.png 300w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Progetto-senza-titolo-150x150.png 150w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Progetto-senza-titolo-768x768.png 768w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Progetto-senza-titolo-480x480.png 480w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Progetto-senza-titolo.png 1080w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Per promuovere la fiducia, la pubblicazione sottolinea l\u2019importanza della <strong>trasparenza e della documentazione<\/strong> , ad esempio documentando l\u2019intero ciclo di vita del prodotto e monitorando i processi di sviluppo.\u00a0<\/li>\n\n\n\n<li>Per <strong>la gestione del rischio<\/strong> , questioni come l&#8217;uso previsto, l&#8217;apprendimento continuo, gli interventi umani, i modelli di formazione e le minacce alla sicurezza informatica devono essere <strong>tutte affrontate in modo esaustivo<\/strong>, con modelli resi il pi\u00f9 semplici possibile.\u00a0<\/li>\n\n\n\n<li>La <strong>convalida<\/strong> <strong>esterna<\/strong> <strong>dei dati<\/strong> e la chiarezza sull\u2019uso <strong>previsto<\/strong> dell\u2019IA aiutano a garantire la sicurezza e a facilitare la regolamentazione.\u00a0<\/li>\n\n\n\n<li>Un impegno per <strong>la qualit\u00e0 dei dati<\/strong> , ad esempio attraverso una valutazione rigorosa dei sistemi prima del rilascio, \u00e8 vitale per garantire che i sistemi non amplifichino pregiudizi ed errori.\u00a0<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li>La promozione della <strong>collaborazione<\/strong> tra organismi di regolamentazione, pazienti, operatori sanitari, rappresentanti del settore e partner governativi \u00e8 fondamentale per garantire che i prodotti e i servizi nel settore sanitario rispettino le normative vigenti durante l&#8217;intero ciclo di vita, contribuendo cos\u00ec a tutelare la salute dei pazienti e a migliorare la qualit\u00e0 dell&#8217;assistenza sanitaria.<\/li>\n\n\n\n<li>I sistemi di intelligenza artificiale sono basati su algoritmi complessi e richiedono non solo una costruzione accurata del codice, ma <strong>anche l&#8217;utilizzo di dati precisi e affidabili per l&#8217;addestramento<\/strong>. <\/li>\n<\/ul>\n\n\n\n<p>L&#8217;utilizzo di dati non rappresentativi o parziali pu\u00f2 portare all&#8217;amplificazione dei pregiudizi nei risultati dell&#8217;intelligenza artificiale. Per tale motivo, <strong>una regolamentazione adeguata pu\u00f2 aiutare a mitigare questi rischi e garantire l&#8217;utilizzo responsabile dell&#8217;intelligenza artificiale.<\/strong><\/p>\n\n\n\n<p>Ad esempio, pu\u00f2 essere difficile per i modelli di intelligenza artificiale rappresentare accuratamente la diversit\u00e0 delle popolazioni, il che porta a pregiudizi, imprecisioni o addirittura fallimenti. Per contribuire a mitigare questi rischi, \u00e8 possibile utilizzare le normative per garantire che gli attributi \u2013 come genere, razza ed etnia \u2013 delle persone presenti nei dati di formazione vengano riportati e che i set di dati siano intenzionalmente resi rappresentativi. \u00a0<br><\/p>\n\n\n\n<p>La nuova pubblicazione dell&#8217;OMS \u00e8 un documento fondamentale per i governi e le autorit\u00e0 di regolamentazione che intendono sviluppare nuove linee guida o adattare quelle esistenti sull&#8217;Intelligenza Artificiale a livello nazionale o regionale. <\/p>\n\n\n\n<p>Questo documento fornisce una panoramica completa delle attuali conoscenze e delle migliori pratiche sull&#8217;uso dell&#8217;IA in campo sanitario, nonch\u00e9 una serie di raccomandazioni per garantire un utilizzo sicuro ed efficace della tecnologia.<\/p>\n\n\n\n<h2 class=\"wp-block-heading has-vivid-cyan-blue-background-color has-background\">L&#8217;intervento del Garante Privacy<\/h2>\n\n\n\n<p>Il Garante della Privacy italiano ha recentemente pubblicato un decalogo che stabilisce le linee guida per l&#8217;implementazione di servizi sanitari basati sull&#8217;intelligenza artificiale (IA) a livello nazionale. <\/p>\n\n\n\n<figure class=\"wp-block-image size-large is-resized\"><img decoding=\"async\" width=\"1024\" height=\"1024\" src=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Firefly-un-robot-che-guarda-un-lucchetto-sul-monitor-di-un-computer-75206-1024x1024.jpg\" alt=\"\" class=\"wp-image-3354\" style=\"aspect-ratio:1;width:246px;height:auto\" srcset=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Firefly-un-robot-che-guarda-un-lucchetto-sul-monitor-di-un-computer-75206-1024x1024.jpg 1024w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Firefly-un-robot-che-guarda-un-lucchetto-sul-monitor-di-un-computer-75206-300x300.jpg 300w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Firefly-un-robot-che-guarda-un-lucchetto-sul-monitor-di-un-computer-75206-150x150.jpg 150w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Firefly-un-robot-che-guarda-un-lucchetto-sul-monitor-di-un-computer-75206-768x768.jpg 768w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Firefly-un-robot-che-guarda-un-lucchetto-sul-monitor-di-un-computer-75206-1536x1536.jpg 1536w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Firefly-un-robot-che-guarda-un-lucchetto-sul-monitor-di-un-computer-75206-480x480.jpg 480w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p>\u00a0<\/p>\n\n\n\n<h2 class=\"wp-block-heading has-vivid-green-cyan-background-color has-background\">1) La base giuridica del trattamento <\/h2>\n\n\n\n<p>Il trattamento dei dati sulla salute da parte di soggetti che svolgono compiti di interesse pubblico <strong>\u00e8 regolamentato dal diritto dell&#8217;Unione o degli Stati membri.<\/strong> <\/p>\n\n\n\n<p>Questo trattamento deve essere proporzionato alla finalit\u00e0 perseguita, rispettare il diritto alla protezione dei dati e prevedere misure adeguate e specifiche per la tutela dei diritti fondamentali e degli interessi dell&#8217;individuo interessato (art. 9, par. 2, lett. g del Regolamento). <\/p>\n\n\n\n<p>L\u2019uso di tecniche di intelligenza artificiale nel trattamento dei dati sulla salute<strong> richiede una valutazione preliminare sulla necessit\u00e0 di tali trattamenti<\/strong>, che devono essere supportati da un quadro normativo specifico. <\/p>\n\n\n\n<p><br>Tale disposizione si riferisce <strong>all&#8217;art. 2-sexies del Codice,<\/strong> che stabilisce che il trattamento dei dati personali relativi alla salute \u00e8 <strong>ammesso solo in presenza di specifiche disposizioni di legge o regolamentari o di atti amministrativi generali<\/strong> che ne specificano i tipi di dati che possono essere trattati, le operazioni eseguibili e il motivo di interesse pubblico rilevante, nonch\u00e9 le misure appropriate e specifiche per tutelare i diritti fondamentali e gli interessi dell&#8217;interessato. <\/p>\n\n\n\n<p>L&#8217;elaborazione di dati sulla salute attraverso tecniche di IA richiama i concetti di profilazione e di decisioni sulla base di processi automatizzati con riferimento ai quali si rappresenta che, nell\u2019ambito dei trattamenti svolti per motivi di interesse pubblico, <strong>l\u2019uso di tali strumenti \u00e8 consentito solo se espressamente previsto dal diritto degli Stati membri<\/strong>, nel rispetto di misure adeguate a tutela dei diritti, delle libert\u00e0 e dei legittimi interessi degli interessati. <\/p>\n\n\n\n<p>Inoltre, gli Stati membri <strong>sono tenuti a consultare l&#8217;Autorit\u00e0 di controllo <\/strong>durante l&#8217;elaborazione di un atto legislativo o di misura regolamentare che prevede il trattamento di dati personali, al fine di garantire una base giuridica chiara e precisa per il trattamento dei dati personali in conformit\u00e0 alla giurisprudenza della Corte di giustizia dell&#8217;Unione europea e della Corte europea dei diritti dell&#8217;uomo.<\/p>\n\n\n\n<p>Sul punto, \u00e8 importante sottolineare che la<strong> proposta di Regolamento del Parlamento europeo e del Consiglio<\/strong>, attualmente in fase di consolidamento, mira a stabilire regole armonizzate sull&#8217;intelligenza artificiale (legge sull&#8217;intelligenza artificiale del 21 aprile 2021) e a modificare alcuni atti legislativi dell&#8217;Unione. In particolare, le proposte emendative presentate successivamente (posizione negoziale del Parlamento UE del 14 giugno 2023) individuano come ad alto rischio i sistemi di intelligenza artificiale che influiscono sulla salute, sul diritto alle cure e sull&#8217;accesso ai servizi sanitari e all&#8217;assistenza medica. <\/p>\n\n\n\n<p>Inoltre, si auspica l&#8217;adozione di <strong>norme legislative comuni<\/strong> per tutti i sistemi di intelligenza artificiale ad alto rischio, compresi quelli relativi alla selezione dei pazienti per l&#8217;assistenza sanitaria di emergenza.<\/p>\n\n\n\n<p>Al fine di garantire l&#8217;adozione responsabile dell&#8217;Intelligenza Artificiale (IA) nel settore sanitario, \u00e8 necessario stabilire un quadro normativo specifico che preveda misure adeguate per la protezione dei dati.<\/p>\n\n\n\n<p><strong>ai players pubblici della sanit\u00e0 sarebbe fatto divieto di ricorrere all\u2019AI fintanto che una norma di legge non ne disciplini esplicitamente l\u2019utilizzo.\u00a0<\/strong><\/p>\n\n\n\n<h2 class=\"wp-block-heading has-vivid-green-cyan-background-color has-background\">2) I principi di  accountability e di privacy by design e by default<\/h2>\n\n\n\n<p>Il responsabile del trattamento dei dati deve rispettare e dimostrare il rispetto dei principi e degli obblighi previsti dal Regolamento e deve garantire la protezione dei dati personali degli interessati fin dalla fase di progettazione e per impostazione predefinita, come stabilito dagli articoli 5, paragrafo 2, 24 e 25, paragrafo 1, del Regolamento.<\/p>\n\n\n\n<p>Il nuovo quadro normativo sulla protezione dei dati personali richiede una valutazione preliminare e accurata di tutte le decisioni relative al trattamento dei dati personali. Questa valutazione deve essere supportata da motivazioni specifiche e dimostrabili logicamente, al fine di identificare misure necessarie e proporzionate per garantire l&#8217;efficacia del principio di protezione dei dati personali in questione.<\/p>\n\n\n\n<p>In conformit\u00e0 con il principio della &#8220;protezione dei dati fin dalla progettazione&#8221; (art. 25, par. 1, del Regolamento), \u00e8 necessario adottare misure tecniche e organizzative appropriate per garantire la protezione dei dati (art. 5 del Regolamento) durante lo sviluppo di sistemi di intelligenza artificiale nel settore sanitario. Inoltre, \u00e8 necessario integrare nel trattamento le garanzie necessarie per soddisfare i requisiti del Regolamento e tutelare i diritti e le libert\u00e0 degli interessati.<\/p>\n\n\n\n<p>Questa particolare attenzione \u00e8 fondamentale soprattutto per i sistemi di intelligenza artificiale utilizzati in ambito sanitario, i quali devono essere progettati in modo da garantire la protezione dei dati personali e rispettare i principi del Regolamento Generale sulla Protezione dei Dati.<\/p>\n\n\n\n<p>Tali misure, volte ad assicurare l&#8217;effettiva applicazione dei principi in materia di protezione dei dati personali, devono garantire che <strong>il trattamento dei dati sia proporzionale all&#8217;interesse pubblico perseguito<\/strong>. L&#8217;obiettivo \u00e8 quello di ottenere una reale tutela dei dati personali.<\/p>\n\n\n\n<h2 class=\"wp-block-heading has-vivid-green-cyan-background-color has-background\">3) Ruoli<\/h2>\n\n\n\n<p>Nell&#8217;ambito del trattamento dei dati personali, \u00e8 fondamentale i<strong>dentificare correttamente i ruoli di titolare<\/strong> (ai sensi degli articoli 4, n. 7 e 24 del Regolamento) e, se del caso, di <strong>responsabile<\/strong> (ai sensi degli articoli 4, n. 8 e 28 del Regolamento). Ci\u00f2 risulta essenziale per garantire il rispetto delle norme sulla privacy e una gestione adeguata dei dati personali.<\/p>\n\n\n\n<p><strong>Il titolare <\/strong>\u00e8 la persona o l&#8217;organizzazione che prende le decisioni fondamentali riguardo alle finalit\u00e0 e ai metodi di trattamento dei dati personali. Inoltre, il titolare ha la responsabilit\u00e0 generale (nota come &#8220;accountability&#8221;) per i trattamenti effettuati da lui stesso o da altri soggetti agendo per suo conto, in qualit\u00e0 di responsabili del trattamento ai sensi dell&#8217;articolo 28 del Regolamento.<\/p>\n\n\n\n<p><strong>La corretta attribuzione dei ruoli <\/strong>\u00e8 fondamentale per garantire che le attivit\u00e0 svolte da un soggetto siano in linea con i compiti istituzionali che gli sono stati affidati, nel rispetto del quadro giuridico di riferimento del settore.<\/p>\n\n\n\n<p>Per stabilire a chi spetta la titolarit\u00e0 di un trattamento dei dati personali, \u00e8 necessario prima di tutto valutare se esiste una base giuridica adeguata che conferisca a un soggetto il compito di svolgere il trattamento. <\/p>\n\n\n\n<p>Non \u00e8 possibile qualificare automaticamente un soggetto come titolare solo sulla base di un presupposto fattuale, come ad esempio la realizzazione di un progetto che prevede il trattamento dei dati personali.<\/p>\n\n\n\n<p><em>Questo significa che il titolare deve considerare la privacy fin dall&#8217;inizio del processo di progettazione e adottare misure tecniche e organizzative adeguate per garantire la sicurezza dei dati personali degli utenti.<\/em><\/p>\n\n\n\n<p>Per garantire la protezione dei diritti e delle libert\u00e0 degli interessati, \u00e8 fondamentale effettuare una valutazione accurata e ponderata delle decisioni relative al trattamento dei dati. Questo implica la <strong>definizione di motivazioni specifiche e l&#8217;adozione di misure necessarie per tutelare tali diritti e libert\u00e0.<\/strong><\/p>\n\n\n\n<p>Sotto un altro punto di vista, \u00e8 necessario che il trattamento dei dati personali nel settore in questione sia attribuito normativamente al titolare, in modo da identificare concretamente i ruoli del trattamento che si intendono svolgere. <\/p>\n\n\n\n<p>Per fare ci\u00f2, \u00e8 indispensabile esaminare le competenze attribuite ai diversi soggetti e le attivit\u00e0 svolte da ognuno di essi. <\/p>\n\n\n\n<p>I<strong>l ruolo del responsabile del trattamento<\/strong>, invece, consiste nello svolgimento di attivit\u00e0 delegate dal titolare, che pu\u00f2 individuare uno o pi\u00f9 soggetti particolarmente qualificati per svolgere tali attivit\u00e0, in base alle proprie scelte organizzative e considerando le conoscenze specialistiche, l&#8217;affidabilit\u00e0, le risorse e la sicurezza del trattamento (cfr. cons. 81 del Regolamento). <\/p>\n\n\n\n<p>Il titolare del trattamento delimita l&#8217;ambito delle rispettive attribuzioni e fornisce specifiche istruzioni sui trattamenti da effettuare.Nel trattamento di dati personali connesso allo svolgimento dei propri compiti istituzionali, anche i titolari pubblici possono avvalersi del contributo di soggetti esterni, affidando loro determinate attivit\u00e0 che restano nella sfera della titolarit\u00e0 dell&#8217;amministrazione stessa e che non comportano decisioni di fondo sulle finalit\u00e0 e sui mezzi del trattamento.<\/p>\n\n\n\n<p>In questo caso, l&#8217;amministrazione deve designare il soggetto esterno come &#8220;responsabile del trattamento&#8221; ai sensi dell&#8217;art. 28 del Regolamento.In caso contrario, la messa a disposizione di dati personali a soggetti esterni si configura come una comunicazione di dati personali da effettuarsi conformemente al quadro normativo sopra richiamato (artt. 9 del Regolamento e 2-sexies del Codice).<\/p>\n\n\n\n<p>In ogni caso, le persone fisiche che trattano i dati personali, anche presso il soggetto esterno, devono essere autorizzate e opportunamente istruite ai sensi degli artt. 29 del Regolamento e 2-quaterdecies del Codice.<\/p>\n\n\n\n<p>Il Garante per la protezione dei dati personali chiarisce quindi che, <strong>al fine di assegnare il ruolo di titolare del trattamento<\/strong>, \u00e8 fondamentale valutare se esiste una base giuridica sufficiente che conferisca al soggetto l&#8217;incarico di eseguire il trattamento dei dati personali.<\/p>\n\n\n\n<p><em>Non \u00e8 possibile automaticamente qualificare un soggetto come titolare del trattamento dei dati personali solo in base a presupposti fattuali, come ad esempio la realizzazione di un progetto che coinvolge il trattamento di tali dati.<\/em><\/p>\n\n\n\n<h2 class=\"wp-block-heading has-vivid-green-cyan-background-color has-background\">4) I principi di conoscibilit\u00e0, non esclusivit\u00e0 e non discriminazione algoritmica<\/h2>\n\n\n\n<p>Sulla base delle disposizioni del Regolamento e della recente giurisprudenza del Consiglio di Stato, \u00e8 importante identificare i tre principi fondamentali che devono guidare l&#8217;utilizzo degli algoritmi e degli strumenti di intelligenza artificiale nell&#8217;esecuzione di compiti di interesse pubblico.<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Il principio di conoscibilit\u00e0 <\/strong>\n<ul class=\"wp-block-list\">\n<li>sancisce che l&#8217;interessato ha il diritto di essere informato sull&#8217;esistenza di processi decisionali basati su trattamenti automatizzati. In caso affermativo, ha diritto di ricevere informazioni significative sulla logica utilizzata al fine di comprenderla appieno. <\/li>\n\n\n\n<li> Il principio di <strong>conoscibilit\u00e0<\/strong> stabilisce che \u00e8 necessario informare gli interessati coinvolti quando le decisioni vengono prese tramite processi automatizzati e fornire spiegazioni comprensibili sulla logica di tali decisioni. <\/li>\n\n\n\n<li>In base alle indicazioni dell&#8217;Autorit\u00e0, il paziente ha il diritto di essere informato, anche tramite campagne di comunicazione, sull&#8217;esistenza e sulla natura dei processi decisionali basati su trattamenti automatizzati attraverso strumenti di intelligenza artificiale (IA). <\/li>\n\n\n\n<li> Inoltre, il paziente ha il diritto di ricevere informazioni chiare sulla logica utilizzata per prendere tali decisioni, sia nel contesto clinico che in quello delle politiche sanitarie.  <\/li>\n\n\n\n<li>Questo \u00e8 un passo importante per garantire la trasparenza e la tutela dei diritti dei pazienti. In base alle indicazioni dell&#8217;Autorit\u00e0, il paziente ha il diritto di essere informato, anche tramite campagne di comunicazione, sull&#8217;esistenza e sulla natura dei processi decisionali basati su trattamenti automatizzati attraverso strumenti di intelligenza artificiale (IA).  Inoltre, il paziente ha il diritto di ricevere informazioni chiare sulla logica utilizzata per prendere tali decisioni, sia nel contesto clinico che in quello delle politiche sanitarie.  <\/li>\n\n\n\n<li>Questo \u00e8 un passo importante per garantire la trasparenza e la tutela dei diritti dei pazienti.<\/li>\n<\/ul>\n<\/li>\n\n\n\n<li><strong>iI principio di non esclusivit\u00e0<\/strong> \n<ul class=\"wp-block-list\">\n<li>della decisione algoritmica stabilisce che, nel processo decisionale, \u00e8 necessario un intervento umano in grado di controllare, validare o eventualmente smentire la decisione automatica.<\/li>\n\n\n\n<li>Il principio di <strong>non esclusivit\u00e0 della decisione algoritmica<\/strong> sottolinea l&#8217;importanza di coinvolgere un intervento umano nel processo decisionale, anche quando vengono utilizzati algoritmi. <\/li>\n\n\n\n<li>Questo permette di controllare, convalidare o respingere le decisioni automatiche, garantendo cos\u00ec un maggiore controllo e una maggiore sicurezza nel processo decisionale.  <\/li>\n\n\n\n<li>Un aspetto cruciale delle direttive del Garante riguarda la necessit\u00e0 di una supervisione umana nei processi decisionali basati sull&#8217;IA. <\/li>\n\n\n\n<li>Il Garante sottolinea l&#8217;importanza di avere personale sanitario competente in grado di valutare e convalidare le decisioni prese dagli algoritmi di IA, al fine di garantire la correttezza e l&#8217;eticit\u00e0 di tali decisioni. <\/li>\n<\/ul>\n<\/li>\n\n\n\n<li><strong>Il principio di non discriminazione algoritmica<\/strong>\n<ul class=\"wp-block-list\">\n<li> implica che il responsabile del trattamento dei dati dovrebbe utilizzare sistemi di intelligenza artificiale affidabili che riducano le opacit\u00e0 e gli errori causati da fattori tecnologici o umani.<\/li>\n\n\n\n<li> \u00c8 importante verificare periodicamente l&#8217;efficacia di tali sistemi, tenendo conto dell&#8217;evoluzione rapida delle tecnologie impiegate e utilizzando procedure matematiche o statistiche adeguate per la profilazione. Inoltre, \u00e8 fondamentale adottare misure tecniche e organizzative adeguate per correggere eventuali inesattezze nei dati e minimizzare il rischio di errori, soprattutto considerando gli effetti discriminatori potenziali che un trattamento inaccurato dei dati sulla salute potrebbe avere sulle persone fisiche (come indicato nel considerando n. 71 del Regolamento). <\/li>\n\n\n\n<li>L&#8217;utilizzo di sistemi di IA affidabili \u00e8 fortemente raccomandato, poich\u00e9 possono contribuire a ridurre al minimo gli errori derivanti da fattori tecnologici o umani. <\/li>\n\n\n\n<li> \u00c8 altrettanto importante effettuare verifiche periodiche sull&#8217;efficacia di tali sistemi mediante l&#8217;adozione di adeguate misure tecniche e organizzative.  <\/li>\n\n\n\n<li>Questo processo di verifica periodica \u00e8 fondamentale per prevenire discriminazioni che potrebbero compromettere la salute delle persone a causa di dati inaccurati o incompleti.<\/li>\n<\/ul>\n<\/li>\n<\/ol>\n\n\n\n<p><strong>Un esempio concreto<\/strong> di discriminazione potenziale tramite algoritmi \u00e8 stato riscontrato negli Stati Uniti. Un sistema di intelligenza artificiale utilizzato per valutare il rischio sanitario di oltre <strong>200 milioni di americani<\/strong> ha mostrato una tendenza a sottostimare il rischio per i pazienti di etnia afroamericana. <\/p>\n\n\n\n<p>Ci\u00f2 \u00e8 stato causato da una metrica che teneva conto della spesa sanitaria media individuale, che risultava essere pi\u00f9 bassa nella popolazione afroamericana, portando a un accesso limitato alle cure sanitarie adeguate per queste persone. <\/p>\n\n\n\n<p>Questo esempio evidenzia l&#8217;importanza di garantire dati precisi ed equi per evitare discriminazioni basate su fattori errati o inadeguati.<\/p>\n\n\n\n<h2 class=\"wp-block-heading has-vivid-green-cyan-background-color has-background\">5) La valutazione di impatto <\/h2>\n\n\n\n<p>Il Regolamento richiede ai titolari di effettuare una valutazione di impatto preventiva per il trattamento dei dati che prevede l&#8217;uso di nuove tecnologie. <\/p>\n\n\n\n<p>Tale valutazione deve considerare la natura, l&#8217;oggetto, il contesto e le finalit\u00e0 del trattamento e deve valutare se ci sia un rischio elevato per i diritti e le libert\u00e0 delle persone fisiche (art. 35). <\/p>\n\n\n\n<p>Inoltre, se le misure tecniche e organizzative individuate per mitigare l&#8217;impatto del trattamento sui diritti e le libert\u00e0 degli interessati non sono ritenute sufficienti o se il rischio residuale per i diritti e le libert\u00e0 degli interessati resta elevato, i titolari devono consultare l&#8217;Autorit\u00e0 di controllo (art. 36).<\/p>\n\n\n\n<p>A tale riguardo, \u00e8 importante segnalare le Linee-guida che riguardano la valutazione dell&#8217;impatto sulla protezione dei dati e i criteri per determinare se un trattamento possa presentare un rischio elevato. <\/p>\n\n\n\n<p> La valutazione dell&#8217;impatto non deve essere considerata solo come un adempimento statico, ma come un processo soggetto a revisione continua.<\/p>\n\n\n\n<p>Prima di implementare un sistema centralizzato a livello nazionale per fornire servizi sanitari utilizzando strumenti di intelligenza artificiale e trattare ampie quantit\u00e0 di dati personali sensibili, \u00e8 necessario effettuare una valutazione dell&#8217;impatto in conformit\u00e0 all&#8217;articolo 35 del Regolamento.<\/p>\n\n\n\n<p> Questi trattamenti rientrano senza dubbio tra quelli ad alto rischio che richiedono una valutazione preventiva dell&#8217;impatto al fine di identificare le misure adeguate per proteggere i diritti e le libert\u00e0 degli interessati e garantire il rispetto dei principi generali del Regolamento.<\/p>\n\n\n\n<p>i. L&#8217;assenza di questa valutazione a livello nazionale impedirebbe una valutazione complessiva e preventiva dell&#8217;adeguatezza e della proporzionalit\u00e0 delle misure da implementare. <\/p>\n\n\n\n<p>Questa circostanza non \u00e8 accettabile per un sistema informativo destinato a trattare e elaborare i dati sanitari di tutti i soggetti assistiti nel territorio nazionale.<\/p>\n\n\n\n<p>Inoltre, la valutazione dell&#8217;impatto dovrebbe tenere conto dei rischi specifici di un database contenente informazioni sanitarie di tutta la popolazione assistita nel territorio nazionale. <\/p>\n\n\n\n<p>Questi rischi includono la perdita dei requisiti di qualit\u00e0 dei dati, la revoca del consenso (se il consenso \u00e8 la base giuridica del trattamento originario), la possibilit\u00e0 di reidentificazione dell&#8217;interessato attraverso interconnessioni con altri sistemi informativi e banche dati, nonch\u00e9 l&#8217;uso dei dati per scopi non compatibili.<\/p>\n\n\n\n<h2 class=\"wp-block-heading has-vivid-green-cyan-background-color has-background\">6) La qualit\u00e0 dei dati<\/h2>\n\n\n\n<p>Il trattamento dei dati sanitari della popolazione assistita richiede l&#8217;adozione di misure rigorose per garantire l&#8217;esattezza e l&#8217;aggiornamento dei dati, nonch\u00e9 la tutela dei diritti fondamentali degli interessati. <\/p>\n\n\n\n<p>Il Consiglio superiore di sanit\u00e0 ha evidenziato i rischi derivanti dall&#8217;uso di sistemi di intelligenza artificiale privi di validazione scientifica e di controllo sui dati processati, che potrebbero portare a aspettative illusorie e fuorvianti per professionisti sanitari e pazienti. <\/p>\n\n\n\n<p>Inoltre, la realizzazione di un sistema di IA per l&#8217;erogazione di servizi digitali nel servizio sanitario nazionale richiede l&#8217;attenzione ai rischi di discriminazione legati all&#8217;elaborazione dei dati attraverso logiche algoritmiche e alla profilazione finalizzata all&#8217;adozione di decisioni automatizzate che possano incidere sull&#8217;aspetto sanitario individuale.<\/p>\n\n\n\n<p>\u00c8 fondamentale considerare i potenziali rischi legati all&#8217;elaborazione dei dati raccolti per scopi di assistenza sanitaria, specialmente se tali dati sono stati successivamente modificati o integrati dal personale medico durante il trattamento di un individuo. <\/p>\n\n\n\n<p>Dati non aggiornati o inesatti potrebbero influire negativamente sull&#8217;efficacia e l&#8217;accuratezza dei servizi forniti dal sistema di intelligenza artificiale, che si basa sulla rielaborazione di tali dati.<\/p>\n\n\n\n<h2 class=\"wp-block-heading has-vivid-green-cyan-background-color has-background\">7) Integrit\u00e0 e riservatezza<\/h2>\n\n\n\n<p>In conformit\u00e0 al Regolamento, i dati personali devono essere trattati in modo da garantire un&#8217;adeguata sicurezza, compresa la protezione da trattamenti non autorizzati o illeciti, nonch\u00e9 da perdite, distruzioni o danni accidentali (integrit\u00e0 e riservatezza) (art. 5, par. 1, lett. f del Regolamento).<\/p>\n\n\n\n<p>\u00c8 importante sottolineare che, in conformit\u00e0 a quanto stabilito negli articoli 5, 25 e 35 del Regolamento, \u00e8 necessario valutare concretamente i rischi per i diritti e le libert\u00e0 degli interessati derivanti dai trattamenti in questione e adottare le misure adeguate per gestirli, escluderli o mitigarli. <\/p>\n\n\n\n<p>Se questi rischi non vengono correttamente identificati e mitigati, possono avere conseguenze pregiudizievoli o risultati discriminatori per gli interessati.<\/p>\n\n\n\n<p>Pertanto, \u00e8 necessario fornire una descrizione dettagliata dei trattamenti, indicando le logiche algoritmiche utilizzate per generare i dati e i servizi tramite i sistemi di IA, le metriche utilizzate per addestrare e valutare la qualit\u00e0 del modello di analisi adottato, le verifiche effettuate per rilevare eventuali bias, le misure correttive adottate e le misure idonee per verificare, anche successivamente, le operazioni eseguite da ciascun soggetto autorizzato e i rischi associati alle analisi deterministiche e stocastiche.<\/p>\n\n\n\n<h2 class=\"wp-block-heading has-vivid-green-cyan-background-color has-background\">8) Correttezza e trasparenza<\/h2>\n\n\n\n<p>La trasparenza e la correttezza nei processi decisionali basati su trattamenti automatizzati costituiscono uno dei pilastri fondamentali per lo sviluppo e l&#8217;utilizzo di sistemi di intelligenza artificiale nell&#8217;ambito dell&#8217;azione amministrativa. <\/p>\n\n\n\n<p>Ci\u00f2 \u00e8 dovuto ai correlati rischi, anche discriminatori, che possono derivare dall&#8217;uso di tali strumenti. <\/p>\n\n\n\n<p>Per una IA affidabile, i documenti internazionali richiamati evidenziano la necessit\u00e0 di garantire una maggiore &#8220;consapevolezza&#8221; nelle comunit\u00e0 di riferimento (nel caso specifico, tutti gli assistiti del Sistema Sanitario Nazionale) riguardo all&#8217;impiego dei sistemi di intelligenza artificiale e alla loro comprensione in relazione al loro funzionamento. <\/p>\n\n\n\n<p>Nella pratica, ci sono diverse misure e adempimenti che devono essere implementati nella predisposizione dei sistemi di IA in sanit\u00e0, tra cui: <\/p>\n\n\n\n<p>assicurare che la base giuridica del trattamento sia chiara, prevedibile e resa conosciuta agli interessati anche attraverso specifiche campagne di informazione; <\/p>\n\n\n\n<p>consultare gli stakeholder e gli interessati nell&#8217;ambito della valutazione d&#8217;impatto; <\/p>\n\n\n\n<p>pubblicare, anche solo per estratto, la valutazione d&#8217;impatto; <\/p>\n\n\n\n<p>predisporre le informazioni da rendere agli interessati, con gli elementi di cui agli articoli 13 e 14 del Regolamento in termini chiari, concisi e comprensibili; <\/p>\n\n\n\n<p>Inoltre, \u00e8 necessario valutare gli obblighi e le responsabilit\u00e0 dei professionisti sanitari nell&#8217;utilizzo dei servizi sanitari basati sull&#8217;IA<\/p>\n\n\n\n<p>\u00c8 fondamentale comprendere i vantaggi diagnostici e terapeutici derivanti dall&#8217;impiego di queste nuove tecnologie. <\/p>\n\n\n\n<p>Inoltre, \u00e8 essenziale garantire modalit\u00e0 efficaci per l&#8217;esercizio dei diritti degli interessati previsti dal Regolamento, tenendo conto dei diversi ruoli dei soggetti coinvolti nel trattamento. <\/p>\n\n\n\n<p>Nel caso in cui si perseguano finalit\u00e0 di cura, \u00e8 necessario assicurare che i servizi di elaborazione dei dati basati su sistemi di IA siano attivati solo su richiesta esplicita del professionista sanitario e non in modo automatico. <\/p>\n\n\n\n<p>Infine, \u00e8 importante regolamentare i profili di responsabilit\u00e0 professionale legati alla scelta del professionista sanitario di affidarsi o meno ai servizi di elaborazione dei dati sanitari dei propri pazienti basati su sistemi di IA.<\/p>\n\n\n\n<p>Il Garante poi richiama l\u2019esigenza di integrit\u00e0 e sicurezza dei dati, unitamente a quello di correttezza per poi focalizzarsi nello specifico sulla necessit\u00e0 di\u00a0<strong>supervisione umana<\/strong>. <\/p>\n\n\n\n<p>L&#8217;uso dell&#8217;Intelligenza Artificiale (IA) pu\u00f2 migliorare la capacit\u00e0 di previsione e di identificazione di correlazioni nei dati. Tuttavia, l&#8217;affidamento esclusivo alle macchine nella presa di decisioni basate su dati elaborati mediante sistemi di IA comporta dei rischi per i diritti e le libert\u00e0 delle persone. <\/p>\n\n\n\n<h2 class=\"wp-block-heading has-vivid-green-cyan-background-color has-background\">9) Supervisione umana<\/h2>\n\n\n\n<p>Nel parere congiunto del Garante europeo e del Comitato europeo per la protezione dei dati (EDPS\/EDPB) si sottolinea che generare contenuti, fare previsioni o adottare decisioni in modo automatico, come fanno i sistemi di intelligenza artificiale (IA), attraverso tecniche di apprendimento automatico o regole di inferenza logica e probabilistica, \u00e8 molto diverso dalle modalit\u00e0 con cui queste stesse attivit\u00e0 sono svolte dagli esseri umani attraverso il ragionamento creativo o teorico, nella piena consapevolezza della responsabilit\u00e0 e delle relative conseguenze.<\/p>\n\n\n\n<p>Se da una parte l&#8217;IA amplia significativamente la quantit\u00e0 di previsioni che si possono fare in molti ambiti, dall&#8217;altra affidare solo alle macchine il compito di prendere decisioni sulla base di dati elaborati mediante sistemi di IA comporta rischi per i diritti e le libert\u00e0 delle persone.<\/p>\n\n\n\n<p>Il Comitato, il Garante europeo e quello italiano hanno sottolineato la centralit\u00e0 del concetto di supervisione umana contenuto nella proposta di Regolamento, evidenziando che l&#8217;effettivo coinvolgimento degli esseri umani dovrebbe fondarsi su una supervisione altamente qualificata e sulla liceit\u00e0 del trattamento, al fine di assicurare il rispetto del diritto di non essere assoggettato a una decisione basata esclusivamente su un trattamento automatizzato.<\/p>\n\n\n\n<p>Nella fase di addestramento degli algoritmi, l&#8217;IA \u00e8 in grado di fare previsioni con diversi gradi di probabilit\u00e0, ma la correttezza nella predizione della IA, soprattutto qualora correlata al rischio di sviluppare malattie, \u00e8 proporzionale al numero, alla qualit\u00e0 e all&#8217;accuratezza dei dati inseriti e alle esperienze immagazzinate su un determinato tema. <\/p>\n\n\n\n<p>Tuttavia, le predizioni possono essere &#8220;sbagliate&#8221; per l&#8217;imprecisione dei dati forniti, per l&#8217;addestramento degli algoritmi o per l&#8217;uso di assunzioni non fondate o non pertinenti.<\/p>\n\n\n\n<p>Per ridurre i rischi per i diritti e le libert\u00e0 degli interessati, con particolare riferimento al rischio di discriminazione, che potrebbe verificarsi relativamente all&#8217;accesso alle cure, alla quota di partecipazione al costo in carico all&#8217;assistito e all&#8217;appropriatezza dei percorsi diagnostici e terapeutici, \u00e8 necessario che il ruolo centrale dell&#8217;uomo, e nel caso di specie del professionista sanitario, sia mantenuto nella fase di addestramento degli algoritmi. <\/p>\n\n\n\n<p>In questo settore, infatti, i rischi di discriminazione algoritmica possono incidere sull&#8217;equit\u00e0 e sull&#8217;inclusivit\u00e0 alle cure, potendo potenzialmente aumentare il divario e le disuguaglianze socio-sanitarie.<\/p>\n\n\n\n<h2 class=\"wp-block-heading has-vivid-green-cyan-background-color has-background\">10) Ulteriori profili<\/h2>\n\n\n\n<p>Per garantire un utilizzo etico, sicuro e trasparente dell&#8217;IA, sarebbe opportuno preferire fornitori che svolgono una valutazione di impatto sulla protezione dei dati prima della commercializzazione dei loro prodotti e che abbiano anche condotto una specifica valutazione di impatto per l&#8217;IA. <\/p>\n\n\n\n<p>\u00c8 importante ricordare che i professionisti sanitari sono tenuti a rispettare specifici obblighi deontologici nell&#8217;elaborazione delle informazioni sulla salute del paziente, nella scelta del percorso terapeutico appropriato e nella gestione dei conflitti di interesse.<\/p>\n\n\n\n<p> La validazione degli algoritmi dovrebbe garantire che l&#8217;IA migliori la qualit\u00e0 delle prestazioni del Servizio Sanitario Nazionale senza avere ripercussioni negative in termini sociali, deontologici, etici e di responsabilit\u00e0 professionale. <\/p>\n\n\n\n<p>Il Garante italiano ha proposto che le autorit\u00e0 dei sette sistemi socio-economici pi\u00f9 importanti lavorino insieme per garantire l&#8217;etica nell&#8217;utilizzo dell&#8217;IA.<\/p>\n\n\n\n<h2 class=\"wp-block-heading has-pale-cyan-blue-background-color has-background\">Conclusioni<\/h2>\n\n\n\n<p>Il &#8220;Decalogo per la realizzazione di servizi sanitari nazionali attraverso sistemi di Intelligenza Artificiale&#8221; \u00e8 un documento pubblicato dal governo italiano che fornisce linee guida per l&#8217;implementazione di soluzioni di Intelligenza Artificiale nel settore sanitario. Il documento \u00e8 stato creato con l&#8217;obiettivo di garantire che l&#8217;uso di tali tecnologie rispetti i diritti dei pazienti e sia in linea con le leggi e le normative in vigore.<\/p>\n\n\n\n<p>Si prevede che entro il 2025 verranno investiti pi\u00f9 di 30 miliardi di dollari nell\u2019intelligenza artificiale per l\u2019assistenza sanitaria, a testimonianza della crescente fiducia nelle soluzioni sanitarie basate sull\u2019intelligenza artificiale.\u00a0<\/p>\n\n\n\n<p>Sul punto, sembra distinguersi tra l\u2019insieme generale dei trattamenti tramite AI svolti sui dati sanitari e quello particolare dei trattamenti svolti su richiesta del professionista sanitario per finalit\u00e0 di cura.\u00a0<br>\u00a0<br>Per i primi, si prevede un costante monitoraggio umano che eviti la c.d. discriminazione algoritmica (punti 4 e 9); monitoraggio che per assumere rilievo in sede di contestazione forse dovrebbe essere affidato a un soggetto diverso da quello che cre\u00f2 originariamente l\u2019infrastruttura AI.\u00a0<br>\u00a0<br>Sui secondi, sembra rimettersi al Titolare la regolamentazione dei profili di responsabilit\u00e0 del sanitario (punto 8), che a ben vedere non \u00e8 per\u00f2 diversa da quella gi\u00e0 disciplinata dalla L. 24\/2017, che sancisce all\u2019art. 7 la responsabilit\u00e0 in solido del sanitario e della Struttura che si serve delle sue prestazioni ai sensi degli artt. 1218 e 1228 c.c.\u00a0<\/p>\n\n\n\n<p>Uno dei motivi principali che spinge all&#8217;investimento in questo campo \u00e8 la grande quantit\u00e0 di dati sanitari disponibili che potrebbero essere utilizzati in modo pi\u00f9 efficiente. Grazie all&#8217;analisi dei dati e all&#8217;utilizzo di strumenti come gli assistenti sanitari virtuali, l&#8217;intelligenza artificiale pu\u00f2 contribuire a ridurre significativamente i costi sanitari.<\/p>\n\n\n\n<h2 class=\"wp-block-heading has-vivid-cyan-blue-background-color has-background\">Raccomandazione del Consiglio sull&#8217;intelligenza artificiale<\/h2>\n\n\n\n<p>La Raccomandazione sull&#8217;Intelligenza Artificiale \u00e8 il primo standard intergovernativo sull&#8217;IA adottato dal Consiglio dell&#8217;OCSE a livello ministeriale il 22 maggio 2019. <\/p>\n\n\n\n<p>La raccomandazione promuove la gestione responsabile di un&#8217;IA affidabile e garantisce il rispetto dei diritti umani e dei valori democratici, integrando gli standard OCSE esistenti in settori quali la privacy, la gestione del rischio per la sicurezza digitale e la condotta aziendale responsabile.<\/p>\n\n\n\n<p> I leader del G20 hanno accolto con favore i principi del G20 sull&#8217;intelligenza artificiale, tratti dalla raccomandazione dell&#8217;OCSE, al vertice di Osaka nel giugno 2019.<\/p>\n\n\n\n<p>La creazione di un contesto politico stabile a livello internazionale \u00e8 essenziale per promuovere la fiducia e l&#8217;adozione dell&#8217;Intelligenza Artificiale (IA) nella societ\u00e0. <\/p>\n\n\n\n<p>A tal fine, il Comitato dell&#8217;Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) sulla politica dell&#8217;economia digitale (CDEP) ha deciso di sviluppare un progetto di raccomandazione del Consiglio, che mira a promuovere un approccio centrato sull&#8217;uomo verso un&#8217;intelligenza artificiale affidabile. Tale approccio promuover\u00e0 la ricerca, preserver\u00e0 gli incentivi economici all&#8217;innovazione e si applicher\u00e0 a tutte le parti interessate.<\/p>\n\n\n\n<p>Pi\u00f9 specificamente, la Raccomandazione si compone di due sezioni sostanziali:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Principi per una gestione responsabile di un\u2019IA affidabile<\/strong>&nbsp;: la prima sezione stabilisce cinque principi complementari rilevanti per tutte le parti interessate:&nbsp;&nbsp;<em>i)<\/em>&nbsp;&nbsp;crescita inclusiva, sviluppo sostenibile e benessere;&nbsp;<em>ii)<\/em>&nbsp;&nbsp;valori centrati sulla persona ed equit\u00e0;&nbsp;<em>iii)<\/em>&nbsp;&nbsp;trasparenza e spiegabilit\u00e0;&nbsp;<em>iv)<\/em>&nbsp;&nbsp;robustezza, sicurezza e protezione;&nbsp;ev&nbsp;&nbsp;<em>)<\/em>&nbsp;&nbsp;responsabilit\u00e0.&nbsp;Questa sezione invita inoltre gli attori dell\u2019IA a promuovere e attuare questi principi in base ai loro ruoli.&nbsp;<\/li>\n\n\n\n<li><strong>Politiche nazionali e cooperazione internazionale per un\u2019IA affidabile<\/strong>&nbsp;: coerentemente con i cinque principi sopra menzionati, questa sezione fornisce cinque raccomandazioni ai Membri e ai non Membri che hanno aderito al progetto di Raccomandazione (di seguito gli \u201cAderenti\u201d) da implementare nelle loro politiche nazionali e internazionali cooperazione:&nbsp;&nbsp;<em>i)<\/em>&nbsp;&nbsp;investire nella ricerca e nello sviluppo dell\u2019IA;&nbsp;<em>ii)<\/em>&nbsp;&nbsp;promuovere un ecosistema digitale per l\u2019intelligenza artificiale;&nbsp;<em>iii)&nbsp;<\/em>&nbsp;definire un contesto politico favorevole all\u2019intelligenza artificiale;&nbsp;<em>iv)&nbsp;<\/em>&nbsp;sviluppare le capacit\u00e0 umane e prepararsi alla trasformazione del mercato del lavoro;&nbsp;e&nbsp;&nbsp;<em>v)<\/em>&nbsp;&nbsp;cooperazione internazionale per un\u2019IA affidabile.<\/li>\n<\/ol>\n\n\n\n<p><strong>IL CONSIGLIO<\/strong> premesso che<\/p>\n\n\n\n<p>L&#8217;intelligenza artificiale (AI) \u00e8 una tecnologia versatile che offre numerose opportunit\u00e0 per migliorare il benessere delle persone, contribuire a un&#8217;economia globale sostenibile e positiva, stimolare l&#8217;innovazione e aumentare la produttivit\u00e0. La sua applicazione si estende a diversi settori, come la produzione, la finanza, i trasporti, la sanit\u00e0 e la sicurezza. <\/p>\n\n\n\n<p>Tuttavia, oltre ai vantaggi, l&#8217;intelligenza artificiale presenta anche alcune sfide per le nostre societ\u00e0 ed economie. Queste sfide riguardano principalmente i cambiamenti economici e le disuguaglianze, la concorrenza, le trasformazioni del mercato del lavoro e le implicazioni per la democrazia e i diritti umani.<\/p>\n\n\n\n<p><em><strong>RICONOSCENDO<\/strong>\u00a0che l\u2019intelligenza artificiale ha implicazioni pervasive, di vasta portata e globali che stanno trasformando le societ\u00e0, i settori economici e il mondo del lavoro, e probabilmente lo faranno sempre di pi\u00f9 in futuro;<\/em><\/p>\n\n\n\n<p><em><strong>RICONOSCENDO<\/strong>\u00a0che l\u2019intelligenza artificiale ha il potenziale per migliorare il benessere e il benessere delle persone, per contribuire a un\u2019attivit\u00e0 economica globale sostenibile e positiva, per aumentare l\u2019innovazione e la produttivit\u00e0 e per contribuire a rispondere alle principali sfide globali;<\/em><\/p>\n\n\n\n<p><em><strong>RICONOSCENDO<\/strong>\u00a0che, allo stesso tempo, queste trasformazioni possono avere effetti disparati all\u2019interno e tra le societ\u00e0 e le economie, in particolare per quanto riguarda i cambiamenti economici, la concorrenza, le transizioni nel mercato del lavoro, le disuguaglianze e le implicazioni per la democrazia e i diritti umani, la privacy e la protezione dei dati, e sicurezza digitale;<\/em><\/p>\n\n\n\n<p><em><strong>RICONOSCENDO<\/strong>\u00a0che la fiducia \u00e8 un fattore chiave per la trasformazione digitale;\u00a0che, sebbene la natura delle future applicazioni dell\u2019IA e le loro implicazioni possano essere difficili da prevedere, l\u2019affidabilit\u00e0 dei sistemi di intelligenza artificiale \u00e8 un fattore chiave per la diffusione e l\u2019adozione dell\u2019IA;\u00a0e che un dibattito pubblico ben informato dell\u2019intera societ\u00e0 \u00e8 necessario per cogliere il potenziale benefico della tecnologia, limitando al tempo stesso i rischi ad essa associati<\/em><\/p>\n\n\n\n<p class=\"has-light-green-cyan-background-color has-background\"><em>\u2012<strong>Sistema di intelligenza artificiale<\/strong>\u00a0:\u00a0un sistema di intelligenza artificiale \u00e8 un sistema basato su macchina che pu\u00f2, per un dato insieme di obiettivi definiti dall&#8217;uomo, fare previsioni, raccomandazioni o decisioni che influenzano ambienti reali o virtuali.\u00a0I sistemi di intelligenza artificiale sono progettati per funzionare con diversi livelli di autonomia.<\/em><\/p>\n\n\n\n<p><\/p>\n\n\n\n<p class=\"has-pale-cyan-blue-background-color has-background\"><strong>Principi per una gestione responsabile di un\u2019IA affidabi<\/strong>le<\/p>\n\n\n\n<p><em><strong>II.\u00a0RACCOMANDA<\/strong>\u00a0che i membri e i non membri che aderiscono alla presente Raccomandazione (di seguito gli \u201cAderenti\u201d) promuovano e attuino i seguenti principi per la gestione responsabile di un\u2019IA affidabile, che sono rilevanti per tutte le parti interessate.<\/em><\/p>\n\n\n\n<p>Le parti interessate dovrebbero impegnarsi <strong>in modo proattivo nella gestione responsabile di un\u2019IA<\/strong> affidabile nel perseguimento di risultati benefici per le persone e per il pianeta, come l\u2019aumento delle capacit\u00e0 umane e il miglioramento della creativit\u00e0, la promozione dell\u2019inclusione delle popolazioni sottorappresentate, la riduzione delle disuguaglianze economiche, sociali, di genere e di altro tipo e la protezione degli ambienti naturali. , rafforzando cos\u00ec la crescita inclusiva, lo sviluppo sostenibile e il benessere.<\/p>\n\n\n\n<p class=\"has-pale-cyan-blue-background-color has-background\"><strong>Valori centrati sull\u2019uomo ed equit\u00e0<\/strong><\/p>\n\n\n\n<p>Gli attori dell\u2019IA dovrebbero <strong>rispettare lo Stato di diritto,<\/strong> i diritti umani e i valori democratici durante tutto il ciclo di vita del sistema IA.\u00a0Questi includono libert\u00e0, dignit\u00e0 e autonomia, privacy e protezione dei dati, non discriminazione e uguaglianza, diversit\u00e0, equit\u00e0, giustizia sociale e diritti del lavoro riconosciuti a livello internazionale.<\/p>\n\n\n\n<p>B)A tal fine, gli attori dell\u2019IA dovrebbero implementare meccanismi e garanzie, come <strong>la capacit\u00e0 di determinazione umana<\/strong>, adeguati al contesto e coerenti con lo stato dell\u2019arte.<\/p>\n\n\n\n<p class=\"has-pale-cyan-blue-background-color has-background\"><strong>Trasparenza e spiegabilit\u00e0<\/strong><\/p>\n\n\n\n<p>Gli attori dell\u2019intelligenza artificiale dovrebbero impegnarsi per la trasparenza e la divulgazione responsabile dei sistemi di intelligenza artificiale.\u00a0A tal fine, dovrebbero<strong> fornire informazioni significative, adeguate al contesto e coerenti con lo stato dell\u2019arte:<\/strong><\/p>\n\n\n\n<p>io.promuovere una comprensione generale dei sistemi di intelligenza artificiale,<\/p>\n\n\n\n<p>ii.rendere le parti interessate consapevoli delle loro interazioni con i sistemi di intelligenza artificiale, anche sul posto di lavoro,<\/p>\n\n\n\n<p>iii.consentire alle persone colpite da un sistema di intelligenza artificiale di comprenderne il risultato e,<\/p>\n\n\n\n<p>iv.consentire a coloro che sono colpiti negativamente da un sistema di intelligenza artificiale di contestarne i risultati sulla base di informazioni semplici e di facile comprensione sui fattori e sulla logica che \u00e8 servita come base per la previsione, la raccomandazione o la decisione.<\/p>\n\n\n\n<p class=\"has-pale-cyan-blue-background-color has-background\"><strong>Robustezza, sicurezza e protezione<\/strong><\/p>\n\n\n\n<p>UN)I sistemi di IA dovrebbero essere <strong>robusti, sicuri e protetti<\/strong> <strong>durante tutto il loro ciclo di vita<\/strong> in modo che, in condizioni di uso normale, uso o abuso prevedibile o altre condizioni avverse, funzionino adeguatamente e non comportino rischi irragionevoli per la sicurezza.<\/p>\n\n\n\n<p>B)A tal fine, gli attori dell&#8217;IA dovrebbero garantire la <strong>tracciabilit\u00e0<\/strong>, anche in relazione ai set di dati, ai processi e alle decisioni prese durante il ciclo di vita del sistema di IA, per consentire l&#8217;analisi dei risultati del sistema di IA e delle risposte alle domande, adeguate al contesto e coerenti con lo stato dell&#8217;arte .<\/p>\n\n\n\n<p class=\"has-pale-cyan-blue-background-color has-background\"><strong>Responsabilit\u00e0<\/strong><\/p>\n\n\n\n<p>Gli attori dell&#8217;Intelligenza Artificiale (IA) hanno<strong> il dovere di garantire il corretto funzionamento dei sistemi di IA <\/strong>e di rispettare i principi etici e legali in base ai loro ruoli e contesti di utilizzo. <\/p>\n\n\n\n<p>Inoltre, \u00e8 essenziale fornire dettagli trasparenti sul funzionamento degli algoritmi, sulle metriche di addestramento utilizzate e sui controlli per identificare e correggere eventuali bias. <\/p>\n\n\n\n<p>Queste misure sono fondamentali per garantire un uso etico e sicuro dell&#8217;IA nei servizi sanitari nazionali, riducendo al minimo le potenziali discriminazioni e proteggendo i diritti e le libert\u00e0 delle persone coinvolte. <\/p>\n\n\n\n<p>Il Garante della Privacy italiano ritiene che tali misure siano necessarie per garantire la tutela dei diritti delle persone coinvolte e la sicurezza dei servizi sanitari nazionali.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<p class=\"has-pale-cyan-blue-background-color has-background\"><strong>Investire in ricerca e sviluppo sull\u2019intelligenza artificiale<\/strong><\/p>\n\n\n\n<p>I governi dovrebbero considerare gli investimenti pubblici a lungo termine e incoraggiare gli investimenti privati \u200b\u200bin ricerca e sviluppo, compresi gli sforzi interdisciplinari, <strong>per stimolare l\u2019innovazione in un\u2019intelligenza artificiale affidabile<\/strong> che si concentri su questioni tecniche impegnative e sulle implicazioni sociali, legali ed etiche legate all\u2019intelligenza artificiale e sulle questioni politiche.<\/p>\n\n\n\n<p>I governi dovrebbero anche considerare gli investimenti pubblici e <strong>incoraggiare gli investimenti privati \u200b\u200bin set di dati aperti<\/strong> che siano rappresentativi e <strong>rispettino la privacy <\/strong>e la protezione dei dati per sostenere un ambiente per la ricerca e lo sviluppo dell\u2019IA privo di pregiudizi inappropriati e per migliorare l\u2019interoperabilit\u00e0 e l\u2019uso degli standard.<\/p>\n\n\n\n<p class=\"has-pale-cyan-blue-background-color has-background\"><strong>Creare un contesto politico favorevole all\u2019intelligenza artificiale<\/strong><\/p>\n\n\n\n<p>I governi dovrebbero rivedere e adattare, ove opportuno, i propri quadri politici e normativi e i meccanismi di valutazione applicati ai sistemi di IA per incoraggiare l\u2019innovazione e la concorrenza per un\u2019IA affidabile.<\/p>\n\n\n\n<p class=\"has-pale-cyan-blue-background-color has-background\"><strong>Rafforzare le capacit\u00e0 umane e prepararsi alla trasformazione del mercato del lavoro<\/strong><\/p>\n\n\n\n<p>I governi dovrebbero lavorare a stretto contatto con le parti interessate per prepararsi alla trasformazione del mondo del lavoro e della societ\u00e0.\u00a0Dovrebbero consentire alle persone di utilizzare e interagire in modo efficace con i sistemi di intelligenza artificiale in tutta l\u2019ampia gamma di applicazioni, anche dotandole delle competenze necessarie.<\/p>\n\n\n\n<p>I governi dovrebbero adottare misure, anche attraverso il dialogo sociale, per garantire una transizione equa per i lavoratori man mano che l\u2019intelligenza artificiale viene utilizzata, ad esempio attraverso programmi di formazione lungo la vita lavorativa, sostegno alle persone colpite dallo sfollamento e accesso a nuove opportunit\u00e0 nel mercato del lavoro.<\/p>\n\n\n\n<p>I governi dovrebbero inoltre lavorare a stretto contatto con le parti interessate per promuovere l\u2019uso responsabile dell\u2019IA sul lavoro, per migliorare la sicurezza dei lavoratori e la qualit\u00e0 del lavoro, per promuovere l\u2019imprenditorialit\u00e0 e la produttivit\u00e0 e mirare a garantire che i benefici dell\u2019IA siano ampiamente ed equamente condivisi.<\/p>\n\n\n\n<p class=\"has-pale-cyan-blue-background-color has-background\"><strong>Cooperazione internazionale per un\u2019IA affidabile<\/strong><\/p>\n\n\n\n<p>I governi, compresi i paesi in via di sviluppo e le parti interessate, dovrebbero cooperare attivamente per promuovere questi principi e progredire verso una gestione responsabile di un\u2019IA affidabile.<\/p>\n\n\n\n<p>I governi dovrebbero collaborare in seno all\u2019OCSE e in altri forum globali e regionali per promuovere la condivisione delle conoscenze sull\u2019IA, a seconda dei casi.\u00a0Dovrebbero incoraggiare iniziative internazionali, intersettoriali e aperte a pi\u00f9 portatori di interessi per acquisire competenze a lungo termine sull\u2019intelligenza artificiale.<\/p>\n\n\n\n<p>I governi dovrebbero promuovere lo sviluppo di standard tecnici globali, basati sul consenso e che coinvolgano pi\u00f9 parti interessate, per un\u2019intelligenza artificiale interoperabile e affidabile.<\/p>\n\n\n\n<p>I governi dovrebbero inoltre incoraggiare lo sviluppo, e il loro stesso utilizzo, di parametri comparabili a livello internazionale per misurare la ricerca, lo sviluppo e la diffusione dell\u2019intelligenza artificiale e raccogliere la base di prove per valutare i progressi nell\u2019attuazione di questi principi.<\/p>\n\n\n\n<h2 class=\"wp-block-heading has-vivid-cyan-blue-background-color has-background\">Sanit\u00e0: l&#8217;AI Act supporta le strutture nella protezione dei dati personali<\/h2>\n\n\n\n<p>Nell&#8217;ambito dell&#8217;AI Act, la privacy e la protezione delle informazioni sanitarie sono considerate priorit\u00e0 assolute. Ci\u00f2 significa che le tecnologie basate sull&#8217;AI devono garantire la sicurezza e la riservatezza dei dati sanitari dei pazienti, al fine di tutelare i loro diritti e prevenire eventuali abusi o violazioni della privacy.<\/p>\n\n\n\n<p>La protezione dei dati personali e della privacy dei singoli individui \u00e8 di fondamentale importanza. L&#8217;AI Act si concentra su questi aspetti, garantendo l&#8217;integrit\u00e0 dei dati e la tutela della privacy.<\/p>\n\n\n\n<p>La legge prevede criteri specifici per garantire una gestione responsabile delle informazioni mediche, in linea con le normative sulla privacy. <\/p>\n\n\n\n<p>\u00c8 importante sottolineare che i dati sanitari sono particolarmente delicati e richiedono una protezione adeguata.<\/p>\n\n\n\n<p>Il AI Act fornisce specifici protocolli per l&#8217;acquisizione, il trattamento e l&#8217;utilizzo dei dati medici all&#8217;interno del contesto dei dispositivi di intelligenza artificiale.<\/p>\n\n\n\n<p>L&#8217;AI Act stabilisce che l&#8217;utilizzo dei dati debba essere limitato al volume essenziale necessario per raggiungere gli obiettivi prefissati, seguendo il principio di minimizzazione informativa.<\/p>\n\n\n\n<p>Di conseguenza, i medici e le aziende del settore sanitario sono tenuti a limitare la raccolta e l&#8217;elaborazione delle informazioni mediche solo a ci\u00f2 che \u00e8 necessario per scopi specifici, come la diagnosi, la terapia o la ricerca clinica. Questo \u00e8 importante per garantire la privacy dei pazienti e proteggere i loro dati sensibili.<\/p>\n\n\n\n<p>La legge sull&#8217;AI sottolinea l&#8217;importanza di ottenere il consenso informato dei pazienti per la gestione di tutte le fasi del processo di diagnosi e cura.<\/p>\n\n\n\n<p> Acquisire questo consenso \u00e8 fondamentale per garantire che i pazienti siano pienamente informati e coinvolti nelle decisioni relative alla loro salute.<\/p>\n\n\n\n<p>Ogni cittadino deve essere profondamente consapevole di come le proprie informazioni sanitarie verranno utilizzate e deve esprimere un\u2019approvazione chiara per tale trattamento. <\/p>\n\n\n\n<p>Il nuovo provvedimento mira a garantire la trasparenza nell&#8217;utilizzo dell&#8217;Intelligenza Artificiale nel settore medico. <\/p>\n\n\n\n<p>Le organizzazioni che utilizzano sistemi basati sull&#8217;IA per scopi sanitari sono tenute a fornire informazioni dettagliate sul funzionamento di tali dispositivi, compresa la logica alla base delle decisioni e i principi adottati per la loro elaborazione. <\/p>\n\n\n\n<p>In questo modo, si intende promuovere una maggiore consapevolezza e fiducia nell&#8217;uso di queste tecnologie nel campo della salute.<\/p>\n\n\n\n<p>Infine, l&#8217;AI Act prevede protocolli robusti per garantire la protezione dei dati medici da intrusioni esterne, dispersione o uso improprio. Le istituzioni sono tenute ad implementare strategie tecniche e organizzative volte a garantire la sicurezza e l&#8217;integrit\u00e0 delle informazioni, eliminando qualsiasi potenziale rischio di violazione.<\/p>\n\n\n\n<p>L&#8217;AI Act, ovvero la legge europea sulla regolamentazione dell&#8217;intelligenza artificiale, prevede clausole etiche di rilievo per promuovere l&#8217;utilizzo consapevole e responsabile dell&#8217;AI nel settore medico, in linea con una visione olistica che considera gli aspetti tecnologici, sociali ed etici dell&#8217;innovazione.<\/p>\n\n\n\n<p>La nuova normativa impone alle istituzioni sanitarie di considerare non solo i vantaggi immediati della tecnologia, ma anche le implicazioni etiche delle loro decisioni. <\/p>\n\n\n\n<p>I principi fondamentali di questo processo sono la tutela dei diritti individuali, la promozione dell&#8217;equit\u00e0 e l&#8217;eliminazione delle discriminazioni. <\/p>\n\n\n\n<p>Le strutture sanitarie devono operare in modo trasparente, fornendo ai pazienti tutte le informazioni necessarie sul funzionamento dell&#8217;intelligenza artificiale e sulle ragioni che sottendono alle decisioni prese. L&#8217;obiettivo \u00e8 quello di garantire un utilizzo etico dell&#8217;intelligenza artificiale, ponendo al primo posto il benessere dei pazienti e il rispetto dei loro diritti.<\/p>\n\n\n\n<h2 class=\"wp-block-heading has-vivid-cyan-blue-background-color has-background\">L&#8217;applicazione dell&#8217;AI nel mondo<\/h2>\n\n\n\n<p>Stanno emergendo nuove tecnologie sanitarie, tra cui i dispositivi indossabili e i piani di trattamento basati sull&#8217;intelligenza artificiale, che si concentrano sui bisogni individuali e sulla prevenzione delle malattie. In Cina, aziende come Huawei Technologies monitorano le statistiche sanitarie vitali attraverso dispositivi indossabili, mentre piattaforme come Ping An Good Doctor offrono diagnosi preliminari basate sull&#8217;intelligenza artificiale. Inoltre, l&#8217;evoluzione dell&#8217;intelligenza artificiale in Cina ha portato a innovazioni come gli algoritmi AI di Infervision per il rilevamento precoce delle malattie attraverso l&#8217;imaging medico e la precisione di Tianji Robot nella chirurgia ortopedica assistita da robot.<\/p>\n\n\n\n<p>Gli Stati Uniti, patria di pionieri come DeepMind, si distinguono per la loro ricerca all&#8217;avanguardia nel campo dell&#8217;intelligenza artificiale. Ad esempio, DeepMind ha addestrato i suoi algoritmi per rilevare pi\u00f9 di 50 malattie degli occhi dalle scansioni mediche. Questo dimostra l&#8217;attenzione che gli Stati Uniti pongono sia alla ricerca innovativa che alla regolamentazione. Le linee guida della Food and Drug Administration (FDA) per i dispositivi medici basati sull&#8217;intelligenza artificiale e i mandati sulla privacy dei dati dell&#8217;Health Insurance Portability and Accountability Act (HIPAA) testimoniano l&#8217;impegno degli Stati Uniti in questo ambito.<\/p>\n\n\n\n<p>Uno studio pubblicato sulla rivista Nature ha dimostrato che l&#8217;utilizzo dell&#8217;intelligenza artificiale potrebbe essere altrettanto efficace, se non addirittura migliore, rispetto ai medici nella rilevazione del cancro al seno tramite mammografia. Inoltre, l&#8217;intelligenza artificiale sta rivoluzionando il modo in cui le malattie vengono prese in considerazione e prevenute. Durante l&#8217;epidemia di Covid-19, ad esempio, la societ\u00e0 canadese BlueDot ha utilizzato l&#8217;intelligenza artificiale per monitorare rapidamente la diffusione del virus, utilizzando notizie e dati sui voli.<\/p>\n\n\n\n<p>Anche il campo della chirurgia ha subito notevoli cambiamenti grazie all&#8217;intelligenza artificiale e alle procedure assistite dai robot. Un esempio di ci\u00f2 \u00e8 rappresentato dal sistema Da Vinci della Intuitive Surgical, con sede in California, che \u00e8 stato utilizzato in oltre 10 milioni di interventi chirurgici. Questo sistema offre risultati migliori e contribuisce a un recupero pi\u00f9 rapido dei pazienti.<\/p>\n\n\n\n<p>Il Giappone sta cercando di far fronte alle sfide poste dall&#8217;invecchiamento della popolazione attraverso l&#8217;integrazione dell&#8217;intelligenza artificiale nell&#8217;assistenza agli anziani. Una delle innovazioni pi\u00f9 interessanti in questo campo \u00e8 rappresentata dal robot Robear. Questo robot \u00e8 stato progettato per assistere gli anziani nelle attivit\u00e0 quotidiane, come alzarsi dal letto o sedersi su una sedia. Grazie alla sua struttura morbida e alla sua capacit\u00e0 di sollevare fino a 80 kg, Robear \u00e8 in grado di fornire un supporto sicuro e confortevole agli anziani che ne hanno bisogno.<\/p>\n\n\n\n<h2 class=\"wp-block-heading has-vivid-cyan-blue-background-color has-background\">Non solo successi<\/h2>\n\n\n\n<p>Un classico esempio \u00e8 l\u2019ormai defunta societ\u00e0 IBM <a href=\"https:\/\/www.scmp.com\/tech\/innovation\/article\/3012021\/ibm-works-ai-detect-chronic-diseases-parkinsons-diabetes?module=inline&amp;pgtype=article\" target=\"_blank\" rel=\"noreferrer noopener\">Watson Health<\/a> , che prometteva di trasformare l\u2019assistenza medica attraverso l\u2019intelligenza artificiale, in particolare nella cura del cancro. Immergendosi in enormi quantit\u00e0 di dati sanitari, Watson suggerirebbe ai medici le cure pi\u00f9 adatte, fungendo da assistente super intelligente.&nbsp;<\/p>\n\n\n\n<p>Ma col passare del tempo, si scopr\u00ec che i consigli di Watson non avevano centrato l&#8217;obiettivo, anzi erano errati, il che rischiava di prendere decisioni mediche errate. L\u2019esperienza di Watson \u00e8 servita da lezione: mentre la tecnologia pu\u00f2 essere un potente alleato nel settore sanitario, la fiducia cieca senza la supervisione umana pu\u00f2 essere pericolosa.&nbsp;<\/p>\n\n\n\n<p>Alcuni casi dimostrano che l&#8217;intelligenza artificiale pu\u00f2 ereditare distorsioni dai dati di addestramento. Questi errori o imprecisioni possono influire sulla precisione e l&#8217;equit\u00e0 delle previsioni dell&#8217;intelligenza artificiale. Tuttavia, gli esseri umani possono identificare tali problemi e migliorare l&#8217;accuratezza, l&#8217;equit\u00e0 e l&#8217;affidabilit\u00e0 del sistema attraverso un&#8217;analisi attenta e una correzione adeguata dei dati di addestramento.<\/p>\n\n\n\n<h2 class=\"wp-block-heading has-vivid-cyan-blue-background-color has-background\">Una corsa contro il tempo<\/h2>\n\n\n\n<p> La rapida evoluzione della tecnologia dell&#8217;intelligenza artificiale spesso superi la regolamentazione e la trasparenza degli algoritmi, che sono fondamentali per creare fiducia. Questo rende la regolamentazione ancora pi\u00f9 complessa.<\/p>\n\n\n\n<p>L&#8217;intelligenza artificiale sta diventando sempre pi\u00f9 presente nel settore medico, con applicazioni che vanno dalla diagnosi al supporto alla decisione clinica. Tuttavia, l&#8217;adozione di queste tecnologie deve essere accompagnata da una regolamentazione adeguata per garantire la sicurezza dei pazienti e la qualit\u00e0 delle cure.<\/p>\n\n\n\n<p>I paesi come il Canada e il Giappone hanno compreso l&#8217;importanza di integrare le linee guida sull&#8217;intelligenza artificiale nei loro sistemi normativi per i dispositivi medici. Questo permette di stabilire standard chiari per l&#8217;uso di algoritmi e di garantire la sicurezza e l&#8217;efficacia dei dispositivi medici basati sull&#8217;intelligenza artificiale.<\/p>\n\n\n\n<p>Altri paesi, invece, sono ancora nella fase iniziale di valutazione dei migliori approcci da adottare. La regolamentazione dell&#8217;intelligenza artificiale \u00e8 un processo complesso che richiede una conoscenza approfondita delle tecnologie coinvolte e delle implicazioni etiche e legali.<\/p>\n\n\n\n<p>La trasparenza degli algoritmi di intelligenza artificiale \u00e8 un aspetto cruciale per creare fiducia nell&#8217;uso di queste tecnologie nel settore medico. Gli algoritmi devono essere comprensibili e tracciabili, in modo che i medici e i pazienti possano capire come vengono presi i decisioni e quali sono le basi scientifiche su cui si fondano.<\/p>\n\n\n\n<p>In conclusione, l&#8217;integrazione delle linee guida sull&#8217;intelligenza artificiale nei sistemi normativi per i dispositivi medici \u00e8 un passo importante per garantire la sicurezza e l&#8217;efficacia di queste tecnologie. Tuttavia, la regolamentazione dell&#8217;intelligenza artificiale rimane una sfida complessa, data la rapida evoluzione della tecnologia e la necessit\u00e0 di garantire la trasparenza degli algoritmi.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"576\" src=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/avv.-bozzo-1024x576.jpg\" alt=\"\" class=\"wp-image-3332\" srcset=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/avv.-bozzo-1024x576.jpg 1024w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/avv.-bozzo-300x169.jpg 300w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/avv.-bozzo-768x432.jpg 768w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/avv.-bozzo-1536x864.jpg 1536w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/avv.-bozzo-480x270.jpg 480w, https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/avv.-bozzo.jpg 1920w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p><\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><\/p>\n\n\n\n<p>S<\/p>\n","protected":false},"excerpt":{"rendered":"<p>L\u2019OMS e la regolamentazione dell\u2019intelligenza artificiale per la salute\u00a0 Grazie ai dati sanitari sempre pi\u00f9 disponibili e ai progressi rapidi delle tecniche di analisi, come il machine learning, la logica e le statistiche, l&#8217;uso dell&#8217;intelligenza artificiale potrebbe rivoluzionare il settore sanitario, migliorando la qualit\u00e0 dell&#8217;assistenza sanitaria e rendendola pi\u00f9 efficiente. L&#8217;OMS ha riconosciuto il grande [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":3348,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[44,1],"tags":[58,66,59,57,68,60,67],"class_list":["post-3280","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-diritto-rovescio","category-non-categorizzato","tag-aiact","tag-garantedellaprivacy","tag-gdpr","tag-intelligenzaartificiale","tag-lineeguida","tag-privacy","tag-sanita"],"yoast_head":"<!-- This site is optimized with the Yoast SEO Premium plugin v23.3 (Yoast SEO v25.6) - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>DECALOGO PER UTILIZZO AI IN CAMPO SANITARIO - PB Consulting<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/decalogo-per-utilizzo-ai-in-campo-sanitario\/\" \/>\n<meta property=\"og:locale\" content=\"en_US\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"DECALOGO PER UTILIZZO AI IN CAMPO SANITARIO\" \/>\n<meta property=\"og:description\" content=\"L\u2019OMS e la regolamentazione dell\u2019intelligenza artificiale per la salute\u00a0 Grazie ai dati sanitari sempre pi\u00f9 disponibili e ai progressi rapidi delle tecniche di analisi, come il machine learning, la logica e le statistiche, l&#8217;uso dell&#8217;intelligenza artificiale potrebbe rivoluzionare il settore sanitario, migliorando la qualit\u00e0 dell&#8217;assistenza sanitaria e rendendola pi\u00f9 efficiente. L&#8217;OMS ha riconosciuto il grande [&hellip;]\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/decalogo-per-utilizzo-ai-in-campo-sanitario\/\" \/>\n<meta property=\"og:site_name\" content=\"PB Consulting\" \/>\n<meta property=\"article:author\" content=\"https:\/\/www.facebook.com\/alberto.bozzo.9\" \/>\n<meta property=\"article:published_time\" content=\"2023-10-23T23:24:20+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2023-10-23T23:24:22+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Firefly-un-medico-che-cura-un-robot-sotto-il-sole-75206.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"2048\" \/>\n\t<meta property=\"og:image:height\" content=\"2048\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Alberto Bozzo\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Alberto Bozzo\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"43 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/decalogo-per-utilizzo-ai-in-campo-sanitario\/\",\"url\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/decalogo-per-utilizzo-ai-in-campo-sanitario\/\",\"name\":\"DECALOGO PER UTILIZZO AI IN CAMPO SANITARIO - PB Consulting\",\"isPartOf\":{\"@id\":\"https:\/\/www.consultingpb.com\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/decalogo-per-utilizzo-ai-in-campo-sanitario\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/decalogo-per-utilizzo-ai-in-campo-sanitario\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Firefly-un-medico-che-cura-un-robot-sotto-il-sole-75206.jpg\",\"datePublished\":\"2023-10-23T23:24:20+00:00\",\"dateModified\":\"2023-10-23T23:24:22+00:00\",\"author\":{\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50\"},\"breadcrumb\":{\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/decalogo-per-utilizzo-ai-in-campo-sanitario\/#breadcrumb\"},\"inLanguage\":\"en-US\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/decalogo-per-utilizzo-ai-in-campo-sanitario\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/decalogo-per-utilizzo-ai-in-campo-sanitario\/#primaryimage\",\"url\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Firefly-un-medico-che-cura-un-robot-sotto-il-sole-75206.jpg\",\"contentUrl\":\"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Firefly-un-medico-che-cura-un-robot-sotto-il-sole-75206.jpg\",\"width\":2048,\"height\":2048},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/decalogo-per-utilizzo-ai-in-campo-sanitario\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/www.consultingpb.com\/en\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"DECALOGO PER UTILIZZO AI IN CAMPO SANITARIO\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/www.consultingpb.com\/#website\",\"url\":\"https:\/\/www.consultingpb.com\/\",\"name\":\"PB Consulting\",\"description\":\"\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/www.consultingpb.com\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"en-US\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50\",\"name\":\"Alberto Bozzo\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/www.consultingpb.com\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g\",\"caption\":\"Alberto Bozzo\"},\"sameAs\":[\"https:\/\/www.consultingpb.com\/\",\"https:\/\/www.facebook.com\/alberto.bozzo.9\",\"https:\/\/www.instagram.com\/ab_dirittorovescio\/\",\"https:\/\/www.linkedin.com\/in\/alberto-bozzo-57982b63\/\"],\"url\":\"https:\/\/www.consultingpb.com\/en\/blog\/author\/alberto\/\"}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"DECALOGO PER UTILIZZO AI IN CAMPO SANITARIO - PB Consulting","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/decalogo-per-utilizzo-ai-in-campo-sanitario\/","og_locale":"en_US","og_type":"article","og_title":"DECALOGO PER UTILIZZO AI IN CAMPO SANITARIO","og_description":"L\u2019OMS e la regolamentazione dell\u2019intelligenza artificiale per la salute\u00a0 Grazie ai dati sanitari sempre pi\u00f9 disponibili e ai progressi rapidi delle tecniche di analisi, come il machine learning, la logica e le statistiche, l&#8217;uso dell&#8217;intelligenza artificiale potrebbe rivoluzionare il settore sanitario, migliorando la qualit\u00e0 dell&#8217;assistenza sanitaria e rendendola pi\u00f9 efficiente. L&#8217;OMS ha riconosciuto il grande [&hellip;]","og_url":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/decalogo-per-utilizzo-ai-in-campo-sanitario\/","og_site_name":"PB Consulting","article_author":"https:\/\/www.facebook.com\/alberto.bozzo.9","article_published_time":"2023-10-23T23:24:20+00:00","article_modified_time":"2023-10-23T23:24:22+00:00","og_image":[{"width":2048,"height":2048,"url":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Firefly-un-medico-che-cura-un-robot-sotto-il-sole-75206.jpg","type":"image\/jpeg"}],"author":"Alberto Bozzo","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Alberto Bozzo","Est. reading time":"43 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/decalogo-per-utilizzo-ai-in-campo-sanitario\/","url":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/decalogo-per-utilizzo-ai-in-campo-sanitario\/","name":"DECALOGO PER UTILIZZO AI IN CAMPO SANITARIO - PB Consulting","isPartOf":{"@id":"https:\/\/www.consultingpb.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/decalogo-per-utilizzo-ai-in-campo-sanitario\/#primaryimage"},"image":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/decalogo-per-utilizzo-ai-in-campo-sanitario\/#primaryimage"},"thumbnailUrl":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Firefly-un-medico-che-cura-un-robot-sotto-il-sole-75206.jpg","datePublished":"2023-10-23T23:24:20+00:00","dateModified":"2023-10-23T23:24:22+00:00","author":{"@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50"},"breadcrumb":{"@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/decalogo-per-utilizzo-ai-in-campo-sanitario\/#breadcrumb"},"inLanguage":"en-US","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/decalogo-per-utilizzo-ai-in-campo-sanitario\/"]}]},{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/decalogo-per-utilizzo-ai-in-campo-sanitario\/#primaryimage","url":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Firefly-un-medico-che-cura-un-robot-sotto-il-sole-75206.jpg","contentUrl":"https:\/\/www.consultingpb.com\/wp-content\/uploads\/2023\/10\/Firefly-un-medico-che-cura-un-robot-sotto-il-sole-75206.jpg","width":2048,"height":2048},{"@type":"BreadcrumbList","@id":"https:\/\/www.consultingpb.com\/blog\/diritto-rovescio\/decalogo-per-utilizzo-ai-in-campo-sanitario\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/www.consultingpb.com\/en\/"},{"@type":"ListItem","position":2,"name":"DECALOGO PER UTILIZZO AI IN CAMPO SANITARIO"}]},{"@type":"WebSite","@id":"https:\/\/www.consultingpb.com\/#website","url":"https:\/\/www.consultingpb.com\/","name":"PB Consulting","description":"","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.consultingpb.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"en-US"},{"@type":"Person","@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/09b2842207e1ed74e87559a8e584fd50","name":"Alberto Bozzo","image":{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.consultingpb.com\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/417349770ce903a6b3447c4269e5e3cf91964bab004ff7a0336c8434fdf40b46?s=96&d=mm&r=g","caption":"Alberto Bozzo"},"sameAs":["https:\/\/www.consultingpb.com\/","https:\/\/www.facebook.com\/alberto.bozzo.9","https:\/\/www.instagram.com\/ab_dirittorovescio\/","https:\/\/www.linkedin.com\/in\/alberto-bozzo-57982b63\/"],"url":"https:\/\/www.consultingpb.com\/en\/blog\/author\/alberto\/"}]}},"_links":{"self":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/3280","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/comments?post=3280"}],"version-history":[{"count":9,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/3280\/revisions"}],"predecessor-version":[{"id":3358,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/posts\/3280\/revisions\/3358"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/media\/3348"}],"wp:attachment":[{"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/media?parent=3280"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/categories?post=3280"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.consultingpb.com\/en\/wp-json\/wp\/v2\/tags?post=3280"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}