L’intelligenza artificiale nella salute quotidiana: opportunità e responsabilità
L’intelligenza artificiale (IA) viene utilizzata da un numero sempre maggiore di pazienti, anche nell’ambito della salute. È ora possibile consultare e ricercare rapidamente spiegazioni per termini medici, referti o informazioni relative ai colloqui con i medici. Affinché l’IA possa costituire un supporto utile, un aspetto è fondamentale: il modo in cui vengono poste le domande. È proprio qui che entra in gioco il “prompting”.
Che cosa è un prompt?
Un prompt è la richiesta concreta, ovvero la domanda o l’istruzione, che si rivolge a un’IA. Soprattutto in ambito medico vale il principio secondo cui la sua risposta può essere rilevante solo nella misura in cui lo è la domanda che le viene posta.
L’intelligenza artificiale non comprende i contenuti come un essere umano, bensì valuta il linguaggio sulla base di modelli statistici e probabilità. Domande poco chiare o molto generiche portano quindi inevitabilmente a delle risposte non specifiche. Prompt formulati in modo preciso e oggettivo aumentano invece la possibilità di ottenere una valutazione utile e comprensibile.
Perché delle domande chiare sono importanti
I sistemi di intelligenza artificiale reagiscono alle informazioni fornite. Anche se può succedere che l’IA ponga ulteriori domande all’interno del dialogo, essa non è in grado di riconoscere in modo affidabile quali dati siano rilevanti dal punto di vista medico o quali informazioni possano mancare. Dei prompt formulati con precisione aumentano quindi la probabilità di ottenere risposte comprensibili e facilmente interpretabili. Tuttavia, esse dovrebbero sempre essere intese come informazioni generali, non come raccomandazioni personali o basi valide per prendere decisioni.
Inoltre, i sistemi di intelligenza artificiale possono anche fornire informazioni errate o non più aggiornate senza segnalarlo. Non verificano autonomamente l’attualità medica o la rilevanza individuale dei contenuti. È quindi ancora più importante interpretare criticamente le loro risposte e non considerarle isolatamente.
Utilizzo sensato nell’ambito sanitario
Utilizzato in maniera corretta, il prompting può davvero offrire un valore aggiunto per i pazienti. Molte informazioni mediche sono complesse a livello linguistico e difficili da comprendere, soprattutto le lettere dei medici, i referti o i foglietti illustrativi. In tal contesto l’IA può fornire un sostegno spiegando termini tecnici o illustrando i concetti generali in un linguaggio comprensibile. Per molte persone costituisce un aiuto per poter interpretare informazioni mediche.
Il prompting può essere utile anche per prepararsi a colloqui con i dottori o farmacisti. Chi ha già capito i concetti di base può porre domande mirate, chiarire eventuali dubbi e partecipare attivamente alla conversazione. In questo senso, l’IA può contribuire a rafforzare le proprie competenze in materia di salute e a orientarsi meglio nel sistema sanitario, spesso complesso.
È però importante tenere presente che delle informazioni generali non sono facilmente applicabili alla propria situazione di salute personale. L’IA non è infatti in grado di rilevare o valutare in modo affidabile disturbi individuali, malattie pregresse o altri farmaci che si stanno assumendo.
I chiari limiti dell’intelligenza artificiale nel settore medico
Per quanto l’IA possa essere utile nella spiegazione di contenuti medici, i suoi limiti sono evidenti e dipendono dal contesto in cui viene utilizzata.
Nella pratica clinica, i sistemi basati sull’IA sono già utilizzati come sostegno, ad esempio nell’analisi di radiografie, TAC o risonanze magnetiche. Tali applicazioni possono segnalare anomalie, automatizzare misurazioni o analizzare grandi quantità di dati. Tuttavia, fungono da sistemi di assistenza: la valutazione finale, l’interpretazione e la diagnosi sono effettuate da personale medico qualificato che se ne assume la responsabilità.
Da ciò va distinto l’uso di sistemi di intelligenza artificiale liberamente accessibili da parte dei pazienti nella vita quotidiana. Questi sistemi non sono dispositivi medici approvati, non effettuano esami fisici e non conoscono né l’anamnesi completa né i fattori di rischio individuali. Anche se l’IA può porre ulteriori domande in un dialogo, ciò non avviene sulla base di un giudizio medico. Non è in grado di riconoscere in modo affidabile quali informazioni siano clinicamente rilevanti e non può effettuare un’anamnesi strutturata e responsabile come i medici.
Le domande sulla causa di sintomi concreti o su una terapia adeguata non dovrebbero quindi essere chiarite con un’IA liberamente accessibile. Le risposte possono essere incomplete, ambigue o inesatte e, nel peggiore dei casi, portare a conclusioni errate. Inoltre, essa non è in grado di interpretare clinicamente le incertezze, poiché non si assume alcuna responsabilità per le sue affermazioni, il che può destare preoccupazioni inutili o anche dare un senso di falsa sicurezza quando si tratta di questioni sanitarie delicate.
Le decisioni mediche spettano alla competenza di professionisti sanitari qualificati, che effettuano una valutazione individuale e se ne assumono la responsabilità.
La protezione dei dati: da non perdere di vista
Un altro punto centrale è la protezione dei dati sanitari personali: le informazioni sanitarie sono fra i dati personali più sensibili. Molti assistenti AI sono servizi esterni in cui non è sempre chiaro agli utenti se e come i dati inseriti vengano memorizzati, trattati o riutilizzati.
Pertanto, i pazienti dovrebbero gestire le loro informazioni con molta attenzione. Le domande generali e anonime su termini medici o principi attivi sono generalmente meno rischiose, a condizione che non sia possibile risalire alla propria persona. Diagnosi concrete, nomi, piani terapeutici o il decorso dettagliato delle malattie non dovrebbero invece essere inseriti in sistemi IA liberamente accessibili. La protezione dei dati è quindi una componente attiva di un’alfabetizzazione sanitaria responsabile.
Per integrare, non per sostituire
L’IA può aiutare a comprendere meglio le informazioni mediche e a preparare i colloqui con il personale medico specializzato. Tuttavia, non sostituisce la consulenza medica o farmaceutica. Chi utilizza l’IA in modo consapevole, critico e attento alla protezione dei dati può impiegarla come strumento di sostegno, ma deve sempre tener conto dei suoi limiti.
Gli aiuti digitali sono particolarmente utili se vengono utilizzati in modo sicuro e strutturato. L’applicazione mediteo può aiutarla a tenere traccia dei suoi farmaci e ad arrivare ben preparato ai colloqui con medici e farmacisti: un ausilio utile nella vita quotidiana, non un sostituto della consulenza personale.
Fonti
-
(WHO), World Health Organization (2021). Ethics and governance of artificial intelligence for health: WHO guidance. Ginevra.
-
Topol, Eric J. “High-performance medicine: the convergence of human and artificial intelligence.” Nature medicine vol. 25,1 (2019): 44-56. doi:10.1038/s41591-018-0300-7
-
Glikson, E. and A. W. Woolley (2020). “Human Trust in Artificial Intelligence: Review of Empirical Research.” Academy of Management Annals 14(2): 627-660.
-
Bender, E. M., et al. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?
-
Gilson, Aidan et al. “How Does ChatGPT Perform on the United States Medical Licensing Examination (USMLE)? The Implications of Large Language Models for Medical Education and Knowledge Assessment.” JMIR medical education vol. 9 e45312. 8 feb. 2023, doi:10.2196/45312
-
European Society of Radiology (ESR). “What the radiologist should know about artificial intelligence – an ESR white paper.” Insights into imaging vol. 10,1 44. 4 apr. 2019, doi:10.1186/s13244-019-0738-2