Un consejo de la IA intoxicó a un hombre y casi le cuesta la vida
Un hombre de 60 años fue hospitalizado tras seguir un consejo de IA sobre el consumo de sal que lo llevó a sufrir una intoxicación grave.

La inteligencia artificial se ha convertido en una herramienta de uso cotidiano con la que resolvemos dudas rápidas y replicamos hasta recetas de cocina o tips de ejercicio, sin embargo, no todo suele ser acertado y efectivo.
¿Qué consejo un hombre recibió de la IA y por qué era riesgoso?
En temas de salud se ha vuelto tendencia consultar a esta herramienta con el fin de automedicarse o tomar receta indicadas por la herramienta sin tener de manera previa una valoración profesional, poniendo en riesgo nuestra propia salud.
Como fue le caso de un hombre de 60 años que consultó a ChatGPT sobre el consumo de sal para encontrar alternativas, y su indicación lo llevó a tener una grave intoxicación conocida como Bromismo, un problema de salud que se puede dar fácilmente desde hace décadas.

El paciente consultó a la IA para encontrar el sustituto perfecto del cloruro de sodio, conocido como sal, una alternativa saludable según esta herramienta digital que incluyó en su dieta y que terminó incluyendo en su consumo diario durante 3 meses.
El cloruro de sodio fue utilizado en el pasado como ingrediente de sedantes y dejó de emplearse debido a los graves efectos secundarios que provocaba, este compuesto fue común en el siglo XIX, pero actualmente es raro su uso, precisamente por lo que no se usa debido a la toxicidad.
¿Qué síntomas presentó el paciente tras consumir bromuro?
Con el paso de los días, el hombre comenzó a experimentar alteraciones físicas importantes, entre sus síntomas se encontraban insomnio, paranoia y alucinaciones, además de erupciones rojizas.
Al acudir al hospital los análisis de laboratorio arrojaron resultados confusos, ya que el consumo de este medicamento no permite ver con claridad los resultados de las pruebas, por lo que se requirió la intervención de toxicología para entender qué era lo que sucedía en el cuerpo de este hombre.
Tras varios días de hospitalización, logró recuperarse y aunque fue dado de alta continúa bajo supervisión médica por los efectos secundarios a largo plazo que este medicamento puede tener en el organismo.
¿Qué opinan los expertos sobre el uso de IA en temas médicos?
Desde OpenAI, la compañía que es responsable de los chatbot de la IA, se aclaró que sus productos no estaban diseñados para dar un diagnóstico médico ni mucho menos sus tratamientos, de hecho, advierten dentro de sus términos de uso que la información generada no se debe considerar sustituto de una orientación médica real.

Un caso que demostró que aunque la inteligencia artificial ha sido una herramienta de gran ayuda en muchos campos, seguir sus sugerencias sin una correcta validación puede llevar a enfrentar consecuencias graves en áreas tan importantes como la salud mental y la salud física como ocurrió en este caso, donde seguir este tipo de recomendaciones casi le cuesta la vida.
Unirse a canal de Whatsapp de SuperLike