Uno studio recente ha evidenziato un rischio significativo nella tendenza crescente all’utilizzo dell’intelligenza artificiale per la guida medica: Gli strumenti di intelligenza artificiale forniscono consigli sanitari errati quasi il 50% delle volte, spesso fornendo questi errori con assoluta certezza.
I risultati della ricerca rivelano uno schema preoccupante nel funzionamento dei modelli linguistici di grandi dimensioni (LLM). Su 250 domande mediche testate, i chatbot hanno rifiutato di rispondere solo due volte. Invece, hanno fornito risposte continue e assertive, indipendentemente dalla loro accuratezza.
L’illusione della certezza
Il pericolo principale identificato dagli esperti non è solo l’imprecisione, ma il tono dell’intelligenza artificiale.
“I chatbot a volte sbagliano, ma non hanno mai dubbi”, osserva il dottor Lee Schwamm, preside associato di strategia e trasformazione digitale presso la Yale School of Medicine.
Questo “errore assertivo” crea un falso senso di sicurezza. Poiché l’intelligenza artificiale non ha la sfumatura necessaria per esprimere dubbi o fornire gli avvertimenti medici necessari, gli utenti potrebbero confondere un’allucinazione apparentemente sicura per un fatto medico verificato. Ciò è particolarmente preoccupante perché molti utenti non seguono le loro ricerche sull’intelligenza artificiale con una consulenza da parte di un operatore sanitario qualificato.
Perché gli utenti si rivolgono ai chatbot
Nonostante i rischi, la domanda di informazioni sanitarie basate sull’intelligenza artificiale è in aumento. Diversi fattori sistemici stanno guidando questo cambiamento:
- Accessibilità e velocità: A differenza delle cliniche tradizionali, l’intelligenza artificiale è disponibile 24 ore su 24, 7 giorni su 7. Fornisce risposte immediate alle 3:00 del mattino, evitando lunghi tempi di attesa e ostacoli di pianificazione.
- Privacy e comodità: Per sintomi sensibili o imbarazzanti, gli utenti potrebbero sentirsi più a loro agio nel rivelare i dettagli a una macchina che non giudica che a un medico umano.
- Personalizzazione: mentre i siti web medici offrono informazioni generiche, l’intelligenza artificiale può adattare le spiegazioni alle frasi specifiche dell’utente, rendendo gli argomenti complessi più digeribili.
- Barriere sistemiche: I fattori economici svolgono un ruolo enorme. I dati suggeriscono che gli adulti più giovani e gli individui a basso reddito spesso si rivolgono all’intelligenza artificiale perché l’assistenza medica professionale è inaccessibile o di difficile accesso.
- Erosione della fiducia: un più ampio declino della fiducia nei confronti delle istituzioni scientifiche e mediche ha portato alcuni a cercare fonti alternative di verità.
Limitazioni della tecnologia attuale
È importante notare che questo studio si è concentrato sulle interazioni a comando singolo piuttosto che sul dialogo avanti e indietro tipico dell’uso nel mondo reale. Anche se si prevede che le versioni più recenti dell’intelligenza artificiale basate su abbonamento saranno più precise rispetto ai modelli gratuiti testati, gli esperti avvertono che non sono ancora sufficientemente affidabili per fungere da risorsa medica primaria.
Inoltre, l’intelligenza artificiale non ha la capacità di eseguire una diagnosi differenziale, il processo sistematico utilizzato dai medici per escludere varie condizioni attraverso domande chiarificatrici ed esami fisici.
Come utilizzare l’intelligenza artificiale in modo sicuro nel settore sanitario
I professionisti medici suggeriscono che l’intelligenza artificiale dovrebbe essere vista come uno strumento educativo supplementare, non un sostituto diagnostico. Per utilizzare questi strumenti in modo responsabile, prendere in considerazione le seguenti linee guida:
🟢 Usi consigliati
- Linguaggio demistificante: usa l’intelligenza artificiale per spiegare termini medici complessi o risultati di laboratorio in un linguaggio più semplice.
- Preparazione per gli appuntamenti: utilizza un chatbot per fare un brainstorming sulle domande da porre al medico o per articolare i sintomi in modo più chiaro prima di una visita.
- Istruzione generale: usalo per capire come funzionano alcune malattie in senso generale.
🔴 Avvertenze critiche
- Non autotrattarsi mai: non seguire alcun consiglio terapeutico, soprattutto per quanto riguarda i farmaci, senza un controllo umano.
- Nessuna modifica ai farmaci: Non avviare, interrompere o modificare mai una prescrizione in base al suggerimento di un’intelligenza artificiale.
- Verifica informazioni high-stakes: se una domanda richiede la verità assoluta per la tua sicurezza, non fare affidamento su un chatbot.
Conclusione: sebbene l’intelligenza artificiale offra una comodità senza pari e un modo personalizzato per esplorare argomenti relativi alla salute, la sua tendenza a presentare gli errori con elevata sicurezza la rende un pericoloso sostituto del giudizio medico professionale. È meglio utilizzarlo come strumento di preparazione e istruzione, piuttosto che come fonte di verità medica definitiva.
