Giusto: diagnosi dell'IA un rischio per la salute - Le Cronache Ultimora
Ultimora

Giusto: diagnosi dell’IA un rischio per la salute

Giusto: diagnosi dell’IA un rischio per la salute

A Salerno, come nel resto d’Italia, l’uso crescente dell’intelligenza artificiale (IA) per l’autodiagnosi e l’interpretazione di referti medici sta sollevando serie preoccupazioni. Dopo il recente caso dei “gangli basilari”, una patologia inventata da un’IA e diffusasi rapidamente online, il dottor Elio Giusto, presidente provinciale della FIMMG (Federazione Italiana Medici di Medicina Generale) di Salerno, interviene per mettere in guardia i cittadini sui rischi delle informazioni sanitarie inesatte e delle “allucinazioni” tecnologiche.

In questa intervista, il dottor Giusto affronta i pericoli legati all’affidarsi a sistemi non verificati, sottolineando come l’IA non possa in alcun modo sostituire il rapporto di fiducia e la profonda conoscenza che il medico di medicina generale ha del proprio paziente. La FIMMG di Salerno si impegna a educare la popolazione sui limiti e sulle opportunità di questa tecnologia, per promuovere un uso responsabile e consapevole a tutela della salute dei cittadini.

Dottore, il caso dei “gangli basilari” evidenzia il rischio delle informazioni mediche inesatte generate dall’IA. Come può un paziente salernitano riconoscere e difendersi da queste “allucinazioni” tecnologiche?

«Il problema delle cosiddette ‘allucinazioni’ dell’IA è reale: a volte i sistemi generano informazioni che sembrano plausibili ma sono completamente inventate. Per un paziente, specialmente se non ha una formazione medica, è molto difficile riconoscerle. Il primo consiglio è diffidare sempre di diagnosi o spiegazioni che arrivano senza riferimenti a fonti mediche ufficiali, e confrontare ogni informazione con il proprio medico di famiglia».

Molti pazienti si rivolgono al web per fare autodiagnosi. Con la diffusione di chatbot e assistenti IA, qual è il suo consiglio per i cittadini di Salerno che usano questi strumenti per interpretare sintomi e analizzare referti?

«Capisco che la curiosità e l’ansia spingano a cercare risposte immediate. Tuttavia, l’IA non è in grado di interpretare la complessità di un paziente, la sua storia clinica e le variabili locali. Usatela eventualmente per acquisire informazioni generali, ma non per decidere diagnosi o cure: quello è il compito del medico».

La FIMMG di Salerno sta pensando a campagne informative o iniziative per educare i pazienti sui rischi e i limiti dell’uso dell’IA per la salute?

«Sì, stiamo valutando incontri pubblici e campagne informative con un linguaggio semplice, per aiutare i cittadini a capire cosa può e cosa non può fare l’IA in sanità. L’obiettivo è rendere la popolazione consapevole, non spaventata, e dare strumenti per un uso responsabile».

L’uso dell’IA può generare una percezione errata che la tecnologia possa sostituire il rapporto con il medico. Come può la FIMMG, a livello provinciale, rafforzare il ruolo del medico di base come punto di riferimento insostituibile?

«Il medico di medicina generale conosce il paziente, la sua storia, il contesto familiare e sociale: nessuna IA può sostituire questa relazione umana. Rafforzeremo questo ruolo investendo in comunicazione, in presenza sul territorio e in attività di ascolto attivo verso i nostri assistiti».

Secondo lei, quali sono i pericoli più immediati per un paziente che si affida a diagnosi e terapie suggerite da un’intelligenza artificiale, senza prima consultare un professionista?

«Il rischio principale è ricevere indicazioni cliniche sbagliate o incomplete, con conseguente ritardo nella diagnosi o nell’inizio della terapia corretta. Inoltre, c’è il pericolo di ansia ingiustificata o, al contrario, di falsa rassicurazione».

Considerando che le IA sono addestrate su grandi quantità di dati, ma potrebbero non essere aggiornate con le linee guida locali o provinciali, come può un paziente verificare la pertinenza delle informazioni che riceve?

«Ogni informazione medica va confrontata con linee guida ufficiali, meglio se locali o nazionali, e sempre validata da un medico. Le IA non sempre tengono conto delle differenze regionali nei protocolli sanitari».

In che modo i pazienti possono imparare a distinguere tra una fonte di informazione medica affidabile e un sistema di IA che potrebbe fornire dati non verificati o errati?

«Fonti affidabili sono quelle di istituzioni pubbliche, società scientifiche e riviste mediche riconosciute. Diffidiamo di contenuti che non dichiarano chiaramente la fonte, l’autore e la data di aggiornamento».

Qual è il suo messaggio ai cittadini di Salerno riguardo alla gestione dei dati sanitari personali forniti a sistemi di intelligenza artificiale? Ci sono rischi per la privacy da considerare?

«I dati sanitari sono tra i più sensibili. Inserirli in un sistema IA senza sapere dove e come verranno conservati espone a rischi di privacy e di uso improprio. Meglio condividere queste informazioni solo con strutture sanitarie o piattaforme ufficiali».

Ritiene che le scuole, le associazioni o le istituzioni locali debbano svolgere un ruolo attivo nell’educazione sanitaria dei cittadini sull’uso dell’IA? In che modo?

«Assolutamente sì: educare alla salute oggi significa anche educare all’uso corretto della tecnologia. Le scuole possono introdurre moduli di alfabetizzazione digitale sanitaria, e le associazioni possono organizzare incontri divulgativi».

Se un paziente dovesse mostrare al suo medico di base una diagnosi o una terapia proposta da un’IA, come suggerirebbe al medico di gestire la situazione per evitare malintesi e ripristinare la fiducia nel rapporto medico-paziente?

«Il medico deve ascoltare, prendere visione di ciò che il paziente porta, e poi spiegare con chiarezza eventuali differenze con la valutazione clinica. È importante non deridere o liquidare il paziente, ma guidarlo verso una comprensione corretta e condivisa».