AI-in-medicina-rischi-opportunita

L’intelligenza artificiale (AI) sta trasformando profondamente il mondo della sanità. Dalla diagnostica per immagini passando per la gestione dei dati clinici e della bibliografia, fino al supporto decisionale nei reparti di emergenza, le sue applicazioni sono in crescita esponenziale.

Nella mia pratica clinica quotidiana e nell’attività di medicina legale e ginecologia forense ho potuto sperimentare come l’intelligenza artificiale possa rappresentare un utile strumento di supporto in alcune fasi del mio lavoro, mentre mostra ancora limiti evidenti in molte altre.

Il quadro si fa ancora più delicato quando questi strumenti AI vengono utilizzati direttamente dalle pazienti. L’impiego di chatbot, motori di ricerca basati su AI e app per l’autovalutazione dei sintomi può infatti generare situazioni rischiose, soprattutto quando mancano le competenze cliniche necessarie per interpretarne correttamente i risultati. Può accadere ad esempio che le risposte siano esposte in modo chiaro e convincente, ma non siano corrette sul piano medico; in alcuni casi vengono persino generate informazioni inesatte o inventate, un fenomeno noto come allucinazioni dell’AI.

Dall’AI come supporto tecnico all’AI percepita come “autonoma

Oggi la questione centrale non è se l’AI entrerà nella pratica medica – perché lo ha già fatto – ma come, con quali limiti e con quale grado di competente supervisione umana.

Fino a pochi anni fa l’intelligenza artificiale in medicina era impiegata quasi esclusivamente come strumento specialistico, sempre sotto il controllo diretto dei professionisti sanitari. Grazie alla capacità di elaborare volumi di dati enormemente superiori a quelli gestibili dall’essere umano, l’AI si è dimostrata particolarmente efficace nel riconoscimento delle immagini diagnostiche. Per questo motivo, le sue principali applicazioni si sono inizialmente concentrate su:

  • analisi di immagini radiologiche (TAC, RM, radiografie)
  • dermatologia e riconoscimento di lesioni cutanee
  • anatomia patologica
  • supporto statistico e gestione dei dati clinici

Negli ultimi anni però, l’evoluzione dei Large Language Models (LLM) e dei sistemi predittivi ha portato l’AI a proporsi come strumento capace di:

  • suggerire diagnosi cliniche
  • formulare ipotesi prognostiche
  • indicare possibili percorsi terapeutici

Questo passaggio dall’AI “assistita” all’AI percepita come “autonoma” ha alimentato un fraintendimento diffuso, ovvero l’idea che il sistema potesse sostituire il medico umano, tanto che negli ultimi anni ad esempio, molte persone hanno iniziato a utilizzare l’IA per chiarire dubbi su sintomi, esami e referti, spesso condividendo online dati sanitari molto sensibili. Per questo motivo OpenAI ha dovuto introdurre “ChatGPT Salute”, uno spazio dedicato a gestire informazioni mediche in modo più protetto rispetto alle conversazioni standard, con l’obiettivo di ridurre il rischio di esposizione dei referti e di tutelare la privacy degli utenti. ChatGPT Salute – che ripeto non sostituisce il medico e non fornisce diagnosi accurate – sta almeno cercando di rendere più sicuro l’uso dell’IA in ambito sanitario per quello che riguarda i dati sanitari personali.

Diagnosi errate: un problema reale, anche senza AI

La diagnosi errata non è un evento raro e si tratta di uno dei problemi più comuni e costosi della sanità pubblica. Dati internazionali mostrano che circa 1 diagnosi su 10 è errata e che fino al 15% dei pazienti riceve una diagnosi imprecisa o tardiva.

La difficoltà diagnostica è particolarmente elevata nei dipartimenti di emergenza, dove i tempi sono ridotti, i pazienti spesso presentano sintomi aspecifici (dolore addominale, febbre, sincope) e il carico decisionale è elevatissimo.

Per questo sono nati i Computerized Diagnostic Decision Support Systems (CDDSS) progettati per ridurre l’errore, non per eliminare l’intervento del medico.

AI e medicina d’urgenza: il primo grande studio clinico sul CDDSS in contesti d’emergenza

Tra giugno 2022 e giugno 2023 un team svizzero guidato dal Dipartimento di Medicina d’urgenza dell’Inselspital di Berna, in collaborazione con l’Università di Berna, ha condotto il primo studio al mondo sull’efficacia reale di un sistema diagnostico AI in medicina d’urgenza.

Lo studio, pubblicato su The Lancet Digital Health, ha coinvolto 1204 pazienti con sintomi non specifici e 4 pronto soccorso svizzeri.

Durante le fasi di intervento i medici utilizzavano il sistema AI Isabel Pro, mentre nelle fasi di controllo lavoravano senza supporto tecnologico. I risultati non hanno mostrato nessuna differenza significativa tra diagnosi assistita da AI e diagnosi tradizionale in termini di:

  • eventi avversi gravi
  • ricoveri imprevisti in terapia intensiva
  • decessi
  • costi sanitari

In sintesi non è stato rilevato nessun beneficio clinico misurabile per i pazienti in medicina d’urgenza supportata da AI, evidenziando che allo stato attuale i sistemi AI non migliorano la qualità diagnostica nei contesti acuti.

AI vs medici: il confronto diretto

Un altro studio rilevante condotto dall’Università degli Studi di Milano e dall’ASST Santi Paolo e Carlo ha confrontato le capacità diagnostiche di uomini e AI generaliste, ovvero:

  • medici neurologi
  • ChatGPT
  • Gemini

Su casi reali di prima visita neurologica, i risultati hanno mostrato che:

  • I neurologi umani fanno diagnosi con il 75% di accuratezza
  • ChatGPT tocca il 54%
  • Gemini offre il 46%

Gli autori sottolineano che l’AI può rimanere un’alleata solo se adeguatamente addestrata, validata e supervisionata, e non come strumento autonomo.

Il vero problema: l’autodiagnosi digitale dei pazienti

Molte delle informazioni fornite dall’AI sono formalmente corrette. Il problema nasce quando a interrogarla è un paziente, per il quale senza competenze mediche è molto difficile distinguere anche solo un contenuto plausibile da uno realmente corretto.

Chi non ha una formazione medica infatti:

  • ha difficoltà a formulare domande clinicamente pertinenti
  • non ha gli strumenti per selezionare le informazioni rilevanti tra le tante, sulla base del ragionamento di un clinico
  • non è in grado di contestualizzare i dati in base alla sua specifica storia clinica e trarne le corrette conclusioni

Questo porta spesso le persone a:

  • sopravvalutare sintomi comuni
  • collegare segnali aspecifici a patologie tumorali
  • alimentare falsi miti (come l’idea che la pillola anticoncezionale “faccia venire il cancro”)
  • aumentare ansia e depressione

Se non filtrata da competenze cliniche, la valanga di informazioni disponibili con l’AI non chiarisce ma confonde: secondo report ufficiali, tra cui le FDA Safety Communications (2022) trai rischi connessi al suo uso non professionale vengono segnalati anche ritardi diagnostici, sottovalutazione di emergenze, complicanze legate all’automedicazione suggerita da AI, ritardi nella richiesta di aiuto reale.

La mia esperienza in medicina legale: quando l’AI non basta

Lo stesso scenario si ripresenta in ambito di medicina legale e ginecologia forense. Sempre più spesso prima di chiedere una consulenza specialistica per valutare un’azione legale contro un medico o una struttura sanitaria, le persone si rivolgono all’AI per farsi un’idea autonoma della “trattabilità” del proprio caso, cercando articoli scientifici, protocolli e linee guida.

Quello che osservo è che l’AI può effettivamente fornire risposte strutturate e apparentemente pertinenti alla domanda, ma non sempre adeguate al singolo caso clinico. Accade spesso che:

  • vengano richiamate linee guida non applicabili alla situazione concreta
  • si citi letteratura non pertinente
  • vengano tralasciati elementi decisivi del caso reale

Anche io utilizzo l’intelligenza artificiale per ricerche preliminari nel mio lavoro di medico legale, ma con un presupposto fondamentale: senza una specifica competenza clinica e senza la piena conoscenza della documentazione del caso, l’AI rimane uno strumento superficiale, che può commettere errori e portare fuori strada.

Responsabilità medica: ciò che l’AI non sa valutare

L’accertamento della responsabilità medica non si basa sulla semplice individuazione di un errore. Richiede infatti:

  • la valutazione del nesso di causa
  • la presenza di un danno
  • l’analisi delle linee guida vigenti al momento dei fatti, non di quelle attuali
  • la valutazione dell’elemento controfattuale

Sono tutte valutazioni queste che vanno oltre la ricerca di dati e richiedono logica, metodologia, esperienza e conoscenza del contesto. Variabili che oggi l’AI non è certo in grado di integrare come un medico forense umano.

Gli scenari positivi: dove l’AI può davvero fare la differenza

Se usata correttamente da medici e specialisti, l’intelligenza artificiale può offrire benefici concreti.

In ambito clinico

  • supporto alla lettura di immagini diagnostiche
  • individuazione precoce di segnali patologici
  • stratificazione del rischio
  • supporto decisionale in tempo reale

Nella prevenzione

  • analisi predittiva
  • monitoraggio remoto dei pazienti
  • standardizzazione delle cure secondo linee guida evidence-based

La responsabilità finale però resta sempre e solo del medico.

Verso un uso responsabile dell’AI in sanità

L’intelligenza artificiale può offrire un supporto prezioso alla pratica clinica, ma non può – e non deve – prendere il posto del medico. Nelle mani dei professionisti sanitari è uno strumento potente; utilizzata direttamente dai pazienti senza competenze specifiche e senza un confronto con lo specialista, può invece diventare fonte di rischio e di importanti fraintendimenti.

Per ridurne i rischi e valorizzare i benefici, sono fondamentali:

  • algoritmi validati scientificamente
  • supervisione medica costante
  • integrazione nei percorsi clinici reali
  • educazione digitale dei cittadini
  • collaborazione tra istituzioni, clinici e sviluppatori

Alcune fonti

  • The Lancet Digital Health
  • Journal of Medical Informatics Research
  • WHO, Ethics and Governance of AI in Health: Report on Patient Safety ( (2022)
  • FDA Safety Communications (2022)
  • Harvard Health Review, Risks of AI-Driven Symptom Checkers (2022)
  • PubMed case studies – JAMA Health Forum (2021–2023)