Un hombre sufre un brote psicótico por seguir un consejo de ChatGPT: sustituyó la sal de mesa por bromuro de sodio

Publicado el 08/08/2025 por Diario Tecnología
Artículo original

Un hombre sufre un brote psicótico por seguir un consejo de ChatGPT: sustituyó la sal de mesa por bromuro de sodio

En la era de la inteligencia artificial, donde obtener información está al alcance de una simple pregunta, un nuevo caso clínico subraya los peligros de seguir consejos de salud de un chatbot sin la debida supervisión médica y el conocimiento para interpretar las respuestas. Un hombre de 60 años ha sufrido un gran episodio de psicosis y alucinaciones tras decidir, aparentemente influenciado por conversaciones con ChatGPT, eliminar la sal de su dieta y reemplazarse por una sustancia química que resultó ser tóxica.

La historia, que ha sido publicada en la revista médica Annals of Internal Medicine: Clinical Cases, sirve como una advertencia sobre los riesgos de 'hacer tu propia investigación' en lo que a salud respecta.

El protagonista de este caso clínico es un hombre de 60 años en cuyo antecedentes personales aparece su formación en nutrición durante la etapa universitaria. Preocupado por los efectos de la sal en las comidas, recurrió a ChatGPT para poder encontrar una alternativa (porque suprimirla no era opción). Sus interacciones con el chatbot le llevaron a creer que podía sustituir la sal por bromuro de sodio, algo que pudo obtener en internet.

Y a partir de aquí inició su propio experimento a raíz de lo que ChatGPT le había dicho. Cuando pasaron tres meses desde que comenzara a tomar esta sustancia, acabó en urgencias con un cuadro de paranoia severa, ya que estaba convencido de que su vecino estaba intentando envenenarlo. A pesar de tener una sed extrema, se negaba a beber agua en el hospital, afirmando que había comenzado a destilar su propia agua para eliminar todo el resto de cloro posible. Pero en ningún momento mencionó que la IA le había dicho que sustituyera la sal por bromuro de sodio.

El diagnóstico: bromismo

El extraño comportamiento que tenía llevaron a los médicos a realizar una batería de pruebas completa, donde se incluyeron tóxicos. Aquí es donde apareció una gran cantidad de bromuro de sodio, al tener una concentración en sangre de 1.700 mg/L, cuando la concentración normal va desde los 0,9 a los 7,3 mg/L.

Chatgpta

Antiguamente, el bromismo era común dentro de la sanidad de Estados Unidos, ya que algunos sedantes eran literalmente sales de bromo. Pero, por su afectación al sistema nervioso, la FDA decidió prohibirlos, haciendo que el bromismo haya quedado como una patología anecdótica dentro del país.

Pero este paciente sorprendió a los médicos, que tuvieron que aplicar tratamientos de sueroterapia a gran escala para hacer que su cuerpo se 'limpiara' de todo el bromo que tenía acumulado en su interior y que afectaba al sistema nervioso. Algo que requirió tres semanas completas de hospitalización.

¿Qué papel jugó ChatGPT?

Una vez el paciente salió de lo peor de esta crisis, este pudo contar a los médicos cómo había llegado a tener tanto bromo dentro de su cuerpo, mencionando sus lecturas sobre los peligros de la sal y las conversaciones que había tenido con ChatGPT. Esto es algo que los médicos documentaron, aunque en ningún momento pudieron tener acceso a las conversaciones con la IA, aunque especulan que podía tratarse de GPT-3.5 o GPT-4.

Y para darle contexto a la IA, los médicos señalan que el bromuro si puede sustituir a la sal en ciertos contextos como en productos de limpieza o en tratamientos de piscina, pero en ningún caso es apto para el consumo humano.

Los médicos para el artículo trataron de replicar la conversación, y vieron que GPT-3.5 incluía en sus respuestas el bromuro, pero sin una advertencia de salud específica o sin indagar en el propósito de la consulta, algo que obviamente un profesional médico si haría. Aunque si nos vamos a modelos más actuales, si se ha visto una mejora, ya que ahora el chatbot pide clarificar el uso que se le va a dar, y menciona que el bromuro es útil en los 'agentes de limpieza o desinfección'.

Este caso es un perfecto ejemplo de los peligros de la era de la sobreinformación. Como concluyen los autores del estudio, a menudo carecemos de los recursos, las habilidades de verificación o el conocimiento específico para hacer un buen uso de la ingente cantidad de datos a nuestro alcance. Sin saber exactamente qué preguntar ni cómo interpretar las respuestas, "hacer tu propia investigación" puede llevar a situaciones catastróficas como esta.

Imágenes | Solen Feyissa Peter Werkman

En Genbeta | ChatGPT no tiene "secreto de confesión": Sam Altman avisa de que todo lo que le cuentes sobre tu vida podría ser usado en tu contra

utm_campaign=08_Aug_2025"> José Alberto Lizana .