Introduzione
Un caso clinico riportato negli Annals of Internal Medicine ha acceso i riflettori sui possibili rischi dell’uso dell’intelligenza artificiale per ottenere informazioni sulla salute. Un uomo di 60 anni, dopo aver chiesto a ChatGPT un’alternativa al sale da cucina, ha ricevuto il suggerimento di utilizzare bromuro di sodio. Dopo tre mesi di consumo quotidiano, l’uomo ha sviluppato una grave forma di bromismo, una condizione tossica ormai praticamente scomparsa nella medicina moderna.
L’episodio, avvenuto negli Stati Uniti, solleva interrogativi fondamentali sulla sicurezza delle informazioni fornite dalle IA generative, soprattutto quando riguardano consigli medici e nutrizionali.
Il caso: dal sale da cucina al bromuro di sodio
Il protagonista della vicenda aveva iniziato a informarsi sugli effetti nocivi di un consumo eccessivo di cloruro di sodio (sale da cucina) sulla salute, in particolare per la pressione arteriosa e il rischio cardiovascolare.
Non volendo rinunciare al sapore salato nei cibi, ha chiesto a ChatGPT quale potesse essere un sostituto sicuro. Tra le risposte ricevute, il chatbot ha indicato bromuro di sodio, un composto chimico che nel passato è stato usato in campo medico, ma che oggi non è più in uso nella dieta per la sua tossicità.
L’uomo ha acquistato il bromuro di sodio online e lo ha utilizzato regolarmente al posto del sale per circa tre mesi. Durante questo periodo, ha iniziato a manifestare sintomi progressivi di intossicazione.
Che cos’è il bromismo
Il bromismo è una condizione di intossicazione cronica da ioni bromuro, diffusa all’inizio del XX secolo quando il bromuro era usato come sedativo e anticonvulsivante. I sintomi più comuni includono:
- disturbi neurologici (confusione mentale, letargia, debolezza muscolare);
- disturbi cutanei (eruzioni e acne bromica);
- alterazioni della coordinazione e difficoltà cognitive;
- problemi gastrointestinali.
Con il tempo, la medicina moderna ha abbandonato l’uso del bromuro a causa della sua pericolosità e della disponibilità di alternative più sicure. Oggi il bromismo è una diagnosi rarissima.
I sintomi e il ricovero
Dopo tre mesi di consumo, l’uomo ha accusato:
- difficoltà di concentrazione,
- affaticamento persistente,
- problemi di memoria,
- disturbi cutanei diffusi.
Temendo un avvelenamento intenzionale, si è recato in ospedale. Gli esami del sangue hanno rivelato livelli di bromuro molto superiori alla norma, confermando la diagnosi di bromismo. Il trattamento ha incluso sospensione immediata del bromuro e interventi per favorire l’eliminazione del composto dall’organismo.
Il commento degli esperti
I medici dell’Università di Washington a Seattle, autori dello studio pubblicato sulla rivista scientifica, hanno sottolineato come il caso evidenzi “il potenziale contributo dell’IA allo sviluppo di esiti sanitari avversi prevenibili”.
Gli autori hanno messo in guardia su tre punti chiave:
- Inesattezze scientifiche: i chatbot possono fornire informazioni errate o obsolete.
- Mancanza di pensiero critico: l’IA non è in grado di valutare il contesto clinico individuale.
- Rischio di disinformazione: le risposte possono alimentare false credenze e comportamenti pericolosi.
Perché il bromuro di sodio è pericoloso
Il bromuro di sodio è un sale di sodio dell’acido bromidrico. In passato veniva utilizzato:
- come sedativo;
- come anticonvulsivante;
- in alcune applicazioni industriali.
Il suo impiego alimentare non è mai stato comune e oggi è vietato in molti paesi. L’assunzione prolungata può portare ad accumulo di bromuro nei tessuti, causando sintomi neurologici e cutanei potenzialmente gravi.
IA e salute: limiti e responsabilità
Questo caso dimostra che l’intelligenza artificiale non può sostituire il consulto medico. Anche se l’IA generativa può fornire informazioni generali, non ha la capacità di:
- valutare condizioni mediche individuali;
- interpretare esami clinici;
- tenere conto di allergie, farmaci in uso o patologie pregresse.
Affidarsi ciecamente a un chatbot per questioni mediche può comportare rischi seri, soprattutto se si tratta di modifiche alla dieta, alla terapia o allo stile di vita.
Come evitare errori nell’uso dell’IA per la salute
Gli esperti suggeriscono alcune regole di buon senso:
- Verificare sempre le fonti: controllare se le informazioni sono supportate da linee guida ufficiali.
- Consultare un medico o nutrizionista prima di modificare la dieta o assumere integratori.
- Evitare l’acquisto online di sostanze chimiche senza prescrizione e autorizzazione.
- Usare l’IA come strumento informativo di supporto, non come fonte unica di decisione.
Casi simili e preoccupazioni future
Il caso del bromuro di sodio non è isolato. Negli ultimi anni, sono emerse segnalazioni di utenti che hanno seguito consigli fuorvianti ottenuti da sistemi di IA, con conseguenze negative sulla salute.
Questi episodi evidenziano la necessità di:
- migliorare l’accuratezza delle risposte;
- integrare filtri di sicurezza;
- sviluppare sistemi in grado di segnalare quando una domanda richiede competenze mediche specifiche.
Conclusione
L’episodio dell’uomo che ha sviluppato bromismo dopo aver seguito un consiglio di ChatGPT è un campanello d’allarme.
L’intelligenza artificiale può essere uno strumento potente, ma la responsabilità ultima delle decisioni sanitarie deve restare in mano a professionisti qualificati.
Per evitare rischi, è fondamentale che gli utenti siano consapevoli dei limiti dell’IA e che le piattaforme continuino a sviluppare meccanismi di verifica e controllo delle informazioni.
Il messaggio è chiaro: quando si tratta di salute, la prudenza non è mai troppa.