EvdL'elettrocardiogramma (Ecg) è uno degli strumenti essenziali della medicina moderna, utilizzato per rilevare problemi cardiaci che vanno dalle aritmie alle anomalie strutturali. Solo negli Stati Uniti, ogni anno vengono eseguiti milioni di Ecg, sia nei pronto soccorso che nelle visite mediche di routine. Man mano che i sistemi di intelligenza artificiale (Ia) diventano più avanzati, vengono sempre più utilizzati per analizzare gli Ecg, a volte anche rilevando condizioni che i medici potrebbero non notare. Il problema è che i medici devono capire perché un sistema di intelligenza artificiale sta facendo una certa diagnosi. Sebbene l'analisi Ecg basata sull'intelligenza artificiale possa raggiungere un'elevata precisione, spesso funziona come una "scatola nera", fornendo risultati senza spiegare il suo ragionamento.
Senza spiegazioni chiare, i medici esitano a fidarsi di questi strumenti. Per colmare questo divario, i ricercatori del Technion stanno lavorando per rendere l'intelligenza artificiale più interpretabile, dando allo strumento la capacità di spiegare le sue conclusioni in un modo che si allinei con le conoscenze mediche.

Fare in modo che l'intelligenza artificiale parli la lingua del medico
Affinché l'intelligenza artificiale sia utile in ambito clinico, dovrebbe evidenziare le stesse caratteristiche dell'Ecg su cui i medici fanno affidamento quando diagnosticano malattie cardiache. Questo è impegnativo perché anche tra i cardiologi non c'è sempre un pieno accordo su quali siano i marcatori Ecg più importanti. Nonostante ciò, i ricercatori hanno sviluppato diverse tecniche di interpretabilità per aiutare l'Ia a spiegare le sue decisioni. Ma queste tecniche a volte evidenziano ampie regioni dell'Ecg, senza individuare il marcatore esatto, portando a potenziali interpretazioni errate. A volte evidenziano anche parti irrilevanti dell'immagine, come lo sfondo, piuttosto che il segnale Ecg effettivo.

Il prossimo passo: l'intelligenza artificiale per gli Ecg del mondo reale
La maggior parte degli attuali modelli di intelligenza artificiale si basa su immagini Ecg scansionate di alta qualità. Ma nel mondo reale, i medici non sempre hanno accesso a scansioni perfette. Spesso si affidano a stampe cartacee di macchine Ecg, che potrebbero fotografare con uno smartphone per condividerle con i colleghi o aggiungerle alle cartelle cliniche di un paziente. Queste immagini fotografate possono essere inclinate, accartocciate o ombreggiate, rendendo l'analisi dell'intelligenza artificiale molto più difficile. Per risolvere questo problema, il Dr. Vadim Gliner, ex dottorando presso il Biomedical Engineering Lab del Prof. Yael Yaniv presso il Technion, in collaborazione con lo Schuster Lab della Facoltà di Informatica Henry e Marilyn Taub, ha sviluppato un nuovo strumento di interpretabilità dell'intelligenza artificiale progettato specificamente per le immagini Ecg fotografate.
Questo articolo è stato pubblicato su npj Digital Medicine. Utilizzando una tecnica matematica avanzata (basata sulla matrice jacobiana), questo metodo offre una precisione a livello di pixel, il che significa che può evidenziare anche i più piccoli dettagli all'interno di un Ecg. A differenza dei modelli precedenti, non viene distratto dallo sfondo e può persino spiegare perché determinate condizioni non compaiono in un determinato Ecg.

Un futuro più trasparente per l'Ia in medicina
Poiché l'intelligenza artificiale continua a svolgere un ruolo sempre più importante nell'assistenza sanitaria, renderla spiegabile e affidabile è importante tanto quanto renderla accurata. Sviluppando metodi che consentono all'intelligenza artificiale di comunicare i suoi risultati in un modo che si allinea con le competenze mediche, i ricercatori stanno contribuendo a spianare la strada a strumenti di intelligenza artificiale più intelligenti, più affidabili e più ampiamente accettati in cardiologia. Con questi progressi, i medici potrebbero presto avere assistenti Ia che non solo rilevano i problemi cardiaci, ma spiegano anche chiaramente il loro ragionamento, portando a un'assistenza al paziente migliore, più rapida e più informata.

Bibliografia
Gliner V, et al. Clinically meaningful interpretability of an Ia model for Ecg classification. npj Digital Medicine 2025. DOI: 10.1038/s41746-025-01467-8