La spinta principale all’adozione di queste tecnologie è chiara: quasi tutti i Paesi dichiarano di puntare sull’Ia per migliorare la qualità dell’assistenza ai pazienti e alleggerire la pressione sulla forza lavoro sanitaria. Non a caso, strumenti come la diagnostica assistita e i chatbot conversazionali sono già diffusi in oltre metà degli Stati, utilizzati per attività che spaziano dal triage alla valutazione dei sintomi fino ai promemoria terapeutici.
Le criticità che frenano l’adozione. Accanto alle opportunità, il rapporto mette in evidenza nodi irrisolti. Solo una minoranza di Paesi ha elaborato strategie nazionali specifiche per l’Ia in sanità, mentre la maggior parte si affida a piani generali e intersettoriali. Questo approccio rischia di produrre una governance frammentata e poco efficace.
La formazione dei professionisti rappresenta un altro punto debole: meno di un quarto degli Stati offre programmi strutturati di aggiornamento in servizio e appena uno su cinque prevede percorsi preservice. In molti contesti, inoltre, non sono stati creati ruoli dedicati all’Ia, lasciando i medici senza riferimenti chiari.
Il quadro normativo appare altrettanto incerto. L’86% dei Paesi segnala la responsabilità legale come principale ostacolo, e solo una piccola parte ha definito standard chiari. Non sorprende che la chiarezza normativa sia percepita dai medici come una priorità assoluta. Sul fronte dei dati, si registrano progressi con la nascita di hub nazionali e regionali, ma restano lacune importanti sull’uso secondario e sulla condivisione transfrontaliera.
Un’adozione responsabile. Il messaggio dell’Oms è netto: l’Ia può diventare un alleato prezioso per migliorare qualità ed efficienza delle cure, ma deve essere introdotta con responsabilità. Come si legge nel rapporto: “L’intelligenza artificiale non deve sostituire il giudizio clinico, ma supportarlo, garantendo che la decisione finale rimanga nelle mani del professionista sanitario.”
Per i medici, la sfida è duplice: da un lato cogliere le opportunità offerte dalle nuove tecnologie, dall’altro pretendere regole chiare e percorsi formativi solidi che consentano di utilizzarle senza rischi per i pazienti né inefficienze operative.
Le raccomandazioni finali. In sintesi, il documento invita gli Stati membri a rafforzare la governance, definire responsabilità legali trasparenti e investire nella formazione. Solo così sarà possibile garantire un’adozione dell’Ia che sia etica, equa e sicura, capace di sostenere la pratica clinica europea senza comprometterne i valori fondamentali.
Situazione Italia: legge sull’Ia e prossimi passi
In questo ambito va precisato che l'’Italia ha compiuto un passo importante nell’ambito della regolamentazione dell’intelligenza artificiale: con la Legge 23 settembre 2025, n. 132, il Paese ha approvato il suo primo quadro normativo organico sull’Ia in linea con le direttive europee. Cosa prevede:
-
Principi generali: trasparenza, sicurezza, tutela dei diritti fondamentali e centralità della persona.
-
Applicazioni in settori sensibili, inclusa la sanità, con regole su dati, responsabilità e supervisione umana.
-
Strutture di governance: AgID e Acn monitoreranno, accrediteranno e valuteranno i sistemi di IA.
-
Nuove disposizioni penali e civili per usi illeciti (ad esempio deepfake, frodi digitali).
Limiti attuali
-
La legge prevede deleghe al Governo per definire decreti attuativi sui dettagli operativi.
-
Molti aspetti concreti rimangono da definire: classificazione dei sistemi a rischio, protocolli clinici, misure di protezione dei dati.
-
L’implementazione e la sorveglianza rimangono sfide cruciali per garantire un’adozione sicura e trasparente.
In sintesi
La normativa rappresenta un punto di partenza fondamentale, ma la piena efficacia richiederà decreti attuativi, linee guida operative e strutture di controllo. L’Italia mostra così come anche con una legge nazionale, l’adozione dell’Ia resti un processo graduale e complesso.