sabato, Aprile 20, 2024

L’OMS pubblica una guida sull’etica e la governance dell’IA per i modelli multimodali di grandi dimensioni

L’Organizzazione Mondiale della Sanità (OMS) ha pubblicato una nuova guida sull’etica e la governance dei modelli multimodali di grandi dimensioni (LMM), un tipo di tecnologia di intelligenza artificiale generativa (IA) in rapida crescita con applicazioni in ambito sanitario.

La guida delinea oltre 40 raccomandazioni che devono essere prese in considerazione da governi, aziende tecnologiche e fornitori di assistenza sanitaria per garantire l’uso appropriato dei LMM per promuovere e proteggere la salute delle popolazioni.

I LMM possono accettare uno o più tipi di dati in ingresso, come testi, video e immagini, e generare diversi output non limitati al tipo di dati immessi. I LMM sono unici per la loro capacità di imitare la comunicazione umana e di svolgere compiti per i quali non sono stati esplicitamente programmati. I LMM sono stati adottati più rapidamente di qualsiasi altra applicazione consumer nella storia, con diverse piattaforme – come ChatGPT, Bard e Bert – che entreranno nella coscienza pubblica nel 2023.

“Le tecnologie di intelligenza artificiale generativa hanno il potenziale per migliorare l’assistenza sanitaria, ma solo se coloro che sviluppano, regolano e utilizzano queste tecnologie identificano e tengono pienamente conto dei rischi associati”, ha dichiarato il dottor Jeremy Farrar, Chief Scientist dell’OMS. “Abbiamo bisogno di informazioni e politiche trasparenti per gestire la progettazione, lo sviluppo e l’uso dei LMM, al fine di ottenere risultati sanitari migliori e superare le persistenti disuguaglianze sanitarie”.

Potenziali benefici e rischi


La nuova guida dell’OMS delinea cinque ampie applicazioni dei LMM per la salute:

Diagnosi e assistenza clinica, come la risposta alle richieste scritte dei pazienti;
Uso guidato dal paziente, ad esempio per indagare sui sintomi e sul trattamento;
Compiti amministrativi e clericali, come la documentazione e il riepilogo delle visite dei pazienti nelle cartelle cliniche elettroniche;
Formazione medica e infermieristica, compresa l’offerta ai tirocinanti di incontri simulati con i pazienti;
ricerca scientifica e sviluppo di farmaci, anche per identificare nuovi composti.
Se da un lato i LMM iniziano a essere utilizzati per scopi specifici legati alla salute, dall’altro è documentato il rischio di produrre affermazioni false, imprecise, tendenziose o incomplete, che potrebbero danneggiare le persone che utilizzano tali informazioni per prendere decisioni sulla salute. Inoltre, i LMM possono essere addestrati su dati di scarsa qualità o distorti, sia per razza, etnia, ascendenza, sesso, identità di genere o età.

La guida descrive anche rischi più ampi per i sistemi sanitari, come l’accessibilità e l’economicità dei LMM più performanti. Gli LMM possono anche incoraggiare “pregiudizi di automazione” da parte degli operatori sanitari e dei pazienti, in quanto vengono trascurati errori che altrimenti sarebbero stati identificati o vengono impropriamente delegate a un LMM scelte difficili. I LMM, come altre forme di IA, sono anche vulnerabili ai rischi di cybersecurity che potrebbero mettere a repentaglio le informazioni dei pazienti o l’affidabilità di questi algoritmi e, più in generale, la fornitura di assistenza sanitaria.

Per creare LMM sicure ed efficaci, l’OMS sottolinea la necessità di coinvolgere diverse parti interessate: governi, aziende tecnologiche, fornitori di servizi sanitari, pazienti e società civile, in tutte le fasi dello sviluppo e dell’implementazione di queste tecnologie, comprese la loro supervisione e regolamentazione.

“I governi di tutti i Paesi devono collaborare per regolamentare in modo efficace lo sviluppo e l’uso delle tecnologie di intelligenza artificiale, come i LMM”, ha dichiarato il dott. Alain Labrique, direttore dell’OMS per la salute digitale e l’innovazione nella divisione scientifica.

Raccomandazioni chiave


La nuova guida dell’OMS contiene raccomandazioni per i governi, che hanno la responsabilità primaria di definire gli standard per lo sviluppo e la diffusione dei LMM, nonché per la loro integrazione e il loro utilizzo per scopi medici e di salute pubblica. Ad esempio, i governi dovrebbero

Investire o fornire infrastrutture pubbliche o senza scopo di lucro, tra cui potenza di calcolo e set di dati pubblici, accessibili agli sviluppatori del settore pubblico, privato e non profit, che richiedano agli utenti di aderire a principi e valori etici in cambio dell’accesso.
Utilizzare leggi, politiche e regolamenti per garantire che i LMM e le applicazioni utilizzate nell’assistenza sanitaria e nella medicina, a prescindere dal rischio o dal beneficio associato alla tecnologia di IA, rispettino gli obblighi etici e gli standard dei diritti umani che riguardano, ad esempio, la dignità, l’autonomia o la privacy di una persona.
Assegnare a un’agenzia di regolamentazione, esistente o nuova, il compito di valutare e approvare i LMM e le applicazioni destinate all’assistenza sanitaria o alla medicina, in base alle risorse disponibili.
Introdurre verifiche e valutazioni d’impatto obbligatorie dopo il rilascio, anche per quanto riguarda la protezione dei dati e i diritti umani, da parte di terzi indipendenti, quando un LMM viene utilizzato su larga scala. Le valutazioni di audit e di impatto dovrebbero essere pubblicate e dovrebbero includere risultati e impatti disaggregati per tipo di utente, ad esempio per età, razza o disabilità.
La guida include anche le seguenti raccomandazioni chiave per gli sviluppatori di LMM, che dovrebbero garantire che:

I LMM non sono progettati solo da scienziati e ingegneri. I potenziali utenti e tutte le parti interessate dirette e indirette, compresi i fornitori di servizi medici, i ricercatori scientifici, gli operatori sanitari e i pazienti, dovrebbero essere coinvolti fin dalle prime fasi dello sviluppo dell’IA in una progettazione strutturata, inclusiva e trasparente e avere l’opportunità di sollevare questioni etiche, esprimere preoccupazioni e fornire input per l’applicazione di IA in esame.
I LMM sono progettati per svolgere compiti ben definiti con l’accuratezza e l’affidabilità necessarie per migliorare la capacità dei sistemi sanitari e promuovere gli interessi dei pazienti. Gli sviluppatori dovrebbero anche essere in grado di prevedere e comprendere i potenziali esiti secondari.

Sowmya Sofia Riccaboni
Sowmya Sofia Riccaboni
Blogger, giornalista scalza (senza tesserino), mamma di 3 figli. Guarda il mondo con i cinque sensi, trascura spesso la forma per dare sensazioni di realtà e di poter toccare le parole. Direttrice Editoriale dal 2009. Laureata in Scienze della Formazione.

Related Articles

- Advertisement -spot_img

Latest Articles