Intelligenza artificiale in medicina – Parte 1


Lanciata nel novembre 2022, ChatGPT (Chat Generative Pretrained Transformer) è un modello LLM (Large Language Model) basato sull’Intelligenza Artificiale (AI), addestrato su enormi set di dati di testo in più lingue, con la capacità di generare risposte simili a quelle umane.  Si tratta di una chatbot (programma in grado di comprendere e generare risposte utilizzando un’interfaccia basata su testo) la cui architettura utilizza reti neurali per elaborare un linguaggio naturale. La sua superiorità, rispetto a predecessori, è legata alla capacità di rispondere in più lingue, generando risposte raffinate e altamente sofisticate.

I pareri della comunità scientifica e del mondo accademico su benefici / rischi dell’impiego di tecnologie avanzate di intelligenza artificiale sono stati molto contrastanti. La resistenza innata della mente umana a qualsiasi cambiamento è, peraltro, fenomeno ben descritto e comprensibile dal punto di vista della psicologia evolutiva e sociale. In generale, il giudizio è positivo su attività che riguardano conversazione e scrittura, in quanto ChatGPT contribuirebbe ad aumentare efficienza e accuratezza dell’output. Per contro, sono state sollevate preoccupazioni in relazione a possibili pregiudizi circa i set di dati di input utilizzati; potrebbero infatti limitarne le capacità e comportare imprecisioni fattuali scientificamente plausibili (fenomeno allarmante chiamato “allucinazione”). Altri aspetti riguardano problemi di sicurezza e il potenziale di attacchi informatici, con conseguente diffusione di disinformazione.

La versatilità dell’intelligenza umana (HI), rispetto all’IA, è legata alla sua storia evolutiva biologica, all’adattabilità, alla creatività, all’intelligenza emotiva e alla capacità di comprendere concetti astratti complessi. La cooperazione HI-AI può essere vantaggiosa se viene garantito un output accurato e affidabile dell’IA; ciò è già stato confermato nell’ambito della medicina personalizzata, della scoperta di farmaci e dell’analisi di grandi set di dati. Potenziali future applicazioni comprendono l’educazione alla salute, il miglioramento diagnostico e l’ambito decisionale clinico. Tuttavia, tali applicazioni vanno considerate con cautela, visti i rischi e i fallimenti sperimentati nel contesto di applicazioni LLM: tra questi, generazione di contenuti imprecisi, mancanza di trasparenza e affidabilità, rischio di pregiudizi e discriminazioni, preoccupazioni per la sicurezza informatica, conseguenze etiche e implicazioni sociali.

Per dare risposte ai tanti dubbi, Malik Sallam ha condotto una revisione sistematica della letteratura, secondo le linee guida PRISMA (Preferred Reporting Items for Systematic Reviews and Meta-Analyses), includendo come fonti di informazione PubMed/MEDLINE e Google Scholar. I criteri di ammissibilità riguardavano qualsiasi tipo di ricerca scientifica pubblicata o preprint (articolo, recensione, comunicazione, editoriale, opinione, ecc.) indirizzati a ChatGPT e rientranti nelle seguenti categorie: pratica/ricerca sanitaria; educazione sanitaria; scrittura accademica. I criteri di esclusione comprendevano documenti non in lingua inglese e articoli da fonti non accademiche (ad es. giornali, siti Internet, riviste, ecc.).

Quali sono stati i risultati della ricerca?

ChatGPT ha avviato un cambiamento di paradigma nel mondo accademico e nella pratica sanitaria: ad oggi, vantaggi e limiti sembrerebbero essere i seguenti.

Ricerca scientifica.

Pratica clinica

  • Vantaggi.  ChatGPT sembra promettente nel semplificare il flusso di lavoro clinico, con conseguente risparmio sui costi e maggiore efficienza nell’erogazione delle cure; è in grado infatti di produrre riepiloghi di dimissione efficienti, con riduzione dei tempi da dedicare alla compilazione di cartelle cliniche. Inoltre, può trasformare la pratica sanitaria migliorando la diagnostica, la previsione del rischio e dell’esito di malattie. Può perfezionare la medicina personalizzata e migliorare l’alfabetizzazione sanitaria, fornendo informazioni facilmente accessibili e comprensibili.
  • Limiti.  Le preoccupazioni sull’uso di ChatGPT riguardano: aspetti etici, tra cui il rischio di parzialità e questioni di trasparenza; generazione di contenuti imprecisi, con concomitanti conseguenze negative in ambito clinico; produzione di scelte decisionali errate. Inoltre, nell’area della medicina personalizzata sono segnalati mancanza di trasparenza e informazioni poco chiare su fonti di dati utilizzati per l’input di ChatGPT, anche in considerazione della variabilità tra popolazioni e tra i diversi ambiti relativi alla salute.  Particolare attenzione meritano le questioni medico-legali e di responsabilità in caso di errori medici causati dall’applicazione: gli attuali LLM, incluso ChatGPT, non sono in grado di comprendere la complessità dei sistemi biologici, concetto importante e necessario in ambito decisionale clinico e nella ricerca sanitaria. A ciò vanno aggiunti la governance dei dati, la sicurezza informatica sanitaria e la privacy. Infine, con ChatGPT mancano prospettive personali ed emotive nella ricerca e nell’erogazione delle cure. Non dovrebbe essere trascurata la svalutazione della funzione del cervello umano; è importante sottolineare l’indispensabile ruolo nell’affrontare qualsiasi conseguenza psicologica, economica e sociale che potrebbe accompagnare l’applicazione di strumenti LLM in ambito clinico.

Educazione sanitaria

  • Vantaggi.  In quest’area, ChatGPT possiede un enorme potenziale di trasformazione, tanto che potrebbe verificarsi l’adattamento dell’istruzione alle esigenze dello studente, essendo possibile  un feedback immediato. Vi è anche la possibilità di creare in modo rapido vignette cliniche realistiche, coerenti e di complessità variabile, molto utili dal punto di vista educativo, anche se non vanno sottostimati i problemi di copyright.  ChatGPT è considerata molto motivante, in quanto basata sull’interazione personalizzata (fattore di potente autoapprendimento), e importante coadiuvante nell’apprendimento di gruppo.
  • Limiti. Esite la preoccupazione che siano generati contenuti distorti ed informazioni imprecise, in quanto i dati di input sono limitati al periodo precedente il 2021; la versatilità di ChatGPT non è pertanto propagandata nel contesto dell’istruzione accademica e della ricerca.

Quale futuro per l’Intelligenza Artificiale?

L’impiego di ChatGPT nell’educazione sanitaria, nella ricerca e nella pratica clinica è inevitabile. È possibile se ne possa fare un uso improprio, e per tale motivo le parti interessate dovrebbero mettere a punto linee guida e regolamenti che ne garantiscano un impiego sicuro e responsabile. Potenziali limiti potrebbero essere rappresentati da questioni di tipo etico e legale; tuttavia ChatGPT, se correttamente implementata, ha il potenziale per accelerare l’innovazione nell’assistenza sanitaria, per promuovere equità e diversità nella ricerca, superando barriere linguistiche.

Prima della sua diffusione ad ampio raggio, ne dovrebbe esser valutato l’impatto in un contesto reale, onde prevenire conseguenze negative legate all’uso improprio di uno strumento innovativo e rivoluzionario. Malik porta ad esempio i grandi successi in Formula 1, ottenuti da Michael Schumacher con la Ferrari, nel 2004. Si chiede cosa avrebbe fatto la stessa macchina nelle mani di un umile ricercatore senza esperienza: senz’altro rotto muri e creato danni irreparabili!

Riferimenti

Sallam Malik. ChatGPT Utility in Healthcare Education, Research, and Practice: Systematic Review on the Promising Perspectives and Valid Concerns. Healthcare 2023, 11(6), 887.

https://doi.org/10.3390/healthcare11060887    https://www.mdpi.com/2227-9032/11/6/887


Immagine di Freepik