Un hombre de 60 años sufrió una rara intoxicación tras seguir durante tres meses una recomendación dietética proporcionada por ChatGPT. Con el auge de la inteligencia artificial accesible a cualquier usuario, muchas personas recurren a chatbots para obtener consejos en áreas delicadas como salud, nutrición y bienestar mental, sin embargo, los expertos advierten que confiar en estas herramientas sin acompañamiento profesional puede ser extremadamente peligroso.
En este caso, el hombre buscaba reducir el consumo de sal común (cloruro sódico) y, tras consultar con ChatGPT, recibió la peligrosa sugerencia de reemplazarla por bromuro de sodio, un compuesto prohibido por la FDA desde finales del siglo pasado debido a sus efectos tóxicos. Confiado, adquirió bromuro de sodio por internet y lo incorporó a sus comidas durante meses, lo que terminó con su ingreso urgente por intoxicación.
Según un caso clínico publicado en Annals of Internal Medicine Clinical Cases, el paciente presentó síntomas graves como paranoia, alucinaciones visuales y auditivas, lesiones cutáneas y comportamiento errático que requirió retención psiquiátrica involuntaria para tratar la intoxicación por bromuro, conocida como bromismo. El bromuro, que fue utilizado en el siglo XX en medicamentos de venta libre, fue retirado del mercado debido a sus efectos neuropsiquiátricos y dermatológicos.
Este incidente subraya la importancia de no confiar en la inteligencia artificial para temas de salud críticos, aunque la IA ofrece avances en diagnósticos predictivos, un chatbot no reemplaza el asesoramiento profesional. OpenAI advierte que sus servicios no deben ser la única fuente para decisiones médicas y que incitan a los usuarios a buscar ayuda profesional para estos temas.
Deja una respuesta