
MARTES, 24 de marzo de 2026 (HealthDay News) -- Quienes dependen de los chatbots para su información científica y médica, estén advertidos: la inteligencia artificial (IA) recibe una "D" cuando se le pide evaluar si una afirmación es verdadera o falsa, según un nuevo estudio.
La precisión de ChatGPT para evaluar afirmaciones científicas fue solo aproximadamente un 60% mejor que la de las conjeturas aleatorias, una puntuación que le valdría una baja "D" en un aula, según informaron recientemente investigadores en Rutgers Business Review.
"No solo hablamos de precisión, estamos hablando de inconsistencia, porque si haces la misma pregunta una y otra vez, obtienes respuestas diferentes", dijo el investigador principal Mesut Cicek, profesor de marketing y negocios internacionales en la Universidad Estatal de Washington en Pullman, Washington.
"Usamos 10 prompts con exactamente la misma pregunta. Todo era idéntico", dijo Cicek en un comunicado de prensa. "Respondería que sí. Después, dice que es falso. Es verdad, es falso, falso, verdad. Hubo varios casos en los que cinco fueron verdaderos, cinco falsos."
Para el nuevo estudio, los investigadores introdujeron más de 700 afirmaciones en ChatGPT y le pidieron que juzgara si cada afirmación era verdadera o falsa, basándose en toda la investigación previa.
El programa de IA tenía alrededor del 80% de precisión, pero la puntuación bajó al 60% después de que los investigadores tuvieran en cuenta las suposiciones aleatorias, es decir, las probabilidades de que una suposición rápida tenga un 50-50 de probabilidad de acertar.
Los resultados refuerzan la necesidad de aplicar escepticismo y precaución al utilizar IA, especialmente en tareas que implican matices o razonamientos complejos, según los investigadores.
La capacidad de los chatbots con el lenguaje enmascara la falta de inteligencia conceptual de las IA, concluyó el equipo.
La IA puede producir un lenguaje fluido y convincente, pero su capacidad para razonar sobre preguntas complejas queda corta porque no puede realmente "pensar", dijeron los investigadores.
Como resultado, la IA puede ofrecer explicaciones persuasivas para respuestas incorrectas, lo que podría engañar a quienes se basan en ella, advirtieron los investigadores.
"Las herramientas de IA actuales no entienden el mundo como nosotros -- no tienen un 'cerebro'", dijo Cicek. Solo memorizan, y pueden darte alguna perspectiva, pero no entienden de lo que hablan."
¿El consejo de Cicek?
"Siempre sé escéptico", dijo. "No estoy en contra de la IA. Lo estoy usando. Pero tienes que tener mucho cuidado."
Más información
El MIT tiene más información sobre alucinaciones y sesgos de IA.
FUENTE: Comunicado de prensa de la Universidad Estatal de Washington, 16 de marzo de 2026
Últimas Noticias
Los nuevos padres enfrentan desafíos de salud mental, según un estudio
Healthday Spanish

Ropa infantil barata contaminada con plomo, según un estudio.
Healthday Spanish

Según un estudio, la elección de alcohol influye en tu riesgo de muerte.
Healthday Spanish

Nueva herramienta online ayuda a pacientes con Parkinson a valorar la decisión sobre implantes cerebrales
Healthday Spanish

Un médico gastroenterólogo advirtió que el 30% de la población tiene ansiedad por problemas intestinales
El doctor Facu Pereyra explicó en Infobae a la Tarde que millones de personas sufren síntomas emocionales sin saber que el origen está en el aparato digestivo. Detalló un método de limpieza intestinal que, según su experiencia, mejora el ánimo y la salud mental


