Un nuevo estudio publicado en BMJ Open encendió las alarmas sobre el uso de la inteligencia artificial en temas médicos. Investigadores de la Universidad Wake Forest concluyeron que hasta el 50% de las respuestas generadas por chatbots sobre salud pueden ser problemáticas, y un 20% incluso altamente peligrosas.
La investigación evaluó a cinco plataformas populares: ChatGPT, Gemini, Meta AI, DeepSeek y Grok, mediante 250 preguntas sobre temas como cáncer, vacunas, nutrición, células madre y rendimiento deportivo.
Los resultados revelaron que muchas respuestas eran imprecisas o incompletas, e incluso podían orientar a tratamientos ineficaces o riesgosos si se siguen sin supervisión médica.
Uno de los hallazgos más preocupantes fue que las preguntas abiertas generaban más errores, y que áreas como nutrición, células madre y rendimiento deportivo concentraban mayor desinformación.
Aunque la tecnología sigue avanzando, los expertos advierten que confiar ciegamente en estas herramientas puede ser un riesgo. Por ello, recomiendan no sustituir la orientación profesional médica por respuestas de inteligencia artificial.



