Así entrenan a la inteligencia artificial para reducir errores y respuestas inventadas

La investigación publicada en Nature plantea una nueva forma de entrenamiento que permitiría a la IA admitir dudas en lugar de responder con información incorrecta

Guardar
Google icon
Un robot humanoide gris con ojos azules y expresión de incertidumbre, su mano derecha hacia datos flotantes en una calle cyberpunk lluviosa con luces de neón.
Un robot humanoide con ojos azules brillantes muestra incertidumbre mientras analiza respuestas flotantes, algunas correctas y otras distorsionadas, en una calle urbana lluviosa iluminada por luces de neón en estilo cyberpunk. (Imagen Ilustrativa Infobae)

La inteligencia artificial podría estar más cerca de reconocer cuándo no sabe algo. Investigadores del Instituto Avanzado de Ciencia y Tecnología de Corea (KAIST) desarrollaron una nueva técnica de entrenamiento que busca reducir uno de los problemas más criticados de modelos como ChatGPT o Gemini: las llamadas “alucinaciones”, respuestas incorrectas o inventadas que los sistemas presentan con total seguridad.

El estudio, publicado en la revista científica Nature, propone un método inspirado en el funcionamiento del cerebro humano para enseñar a la IA a manejar mejor la incertidumbre. El objetivo es que los modelos puedan responder con menor exceso de confianza cuando no cuentan con información suficiente.

PUBLICIDAD

El problema de las alucinaciones se ha convertido en una de las principales barreras para aplicar inteligencia artificial en áreas sensibles como la medicina, la conducción autónoma, la robótica o los sistemas financieros. En estos contextos, una respuesta errónea presentada como cierta puede tener consecuencias importantes.

Cerebro digital azul brillante con circuitos rojos flotando en un laboratorio futurista. Pantallas holográficas muestran 'ERROR 404: CONSCIOUSNESS NOT FOUND' y 'SYSTEM FAILURE'.
Un cerebro digital humanoide, representación de una inteligencia artificial, flota entre pantallas holográficas que muestran mensajes de error y símbolos de duda en un laboratorio tecnológico futurista con iluminación azul y roja. (Imagen Ilustrativa Infobae)

El exceso de confianza de la inteligencia artificial

Los modelos de lenguaje actuales suelen ofrecer respuestas firmes incluso cuando no conocen realmente la información solicitada. Según los investigadores de KAIST, esto ocurre porque los sistemas aprenden patrones durante su entrenamiento, pero no desarrollan una comprensión real sobre los límites de su conocimiento.

PUBLICIDAD

“La IA debería ser capaz de decir ‘no estoy segura’ por sí sola”, explicaron los autores del trabajo.

El estudio señala que parte del problema se origina en las primeras etapas del aprendizaje profundo, un método utilizado para entrenar redes neuronales artificiales. Durante esa fase inicial, conocida como inicialización aleatoria, los modelos comienzan a construir conexiones sin entender todavía qué información es correcta o incorrecta.

Sin embargo, aun en ese estado inicial, la IA ya puede desarrollar niveles elevados de confianza sobre respuestas equivocadas. Esa sobreconfianza termina arrastrándose durante las siguientes etapas del aprendizaje y favorece la aparición de errores.

Grupo de seis científicos de pie en un laboratorio de IA frente a múltiples pantallas que muestran gráficos de redes neuronales y una alerta roja de 'uncertainty detected'.
Científicos colaboran en un moderno laboratorio de inteligencia artificial, analizando gráficos neuronales y alertas de 'incertidumbre detectada' en enormes pantallas mientras entrenan un modelo avanzado. (Imagen Ilustrativa Infobae)

Una técnica inspirada en el cerebro humano

Para intentar resolver este problema, el equipo coreano recurrió a un fenómeno biológico conocido como actividad neuronal espontánea. En el cerebro humano, las neuronas generan señales incluso antes de recibir estímulos externos, algo que ayuda al desarrollo de circuitos neuronales desde etapas tempranas.

Inspirados en este proceso, los investigadores añadieron una nueva fase previa al entrenamiento convencional de la IA. En esta etapa, el modelo recibe únicamente ruido aleatorio y datos sin sentido aparente.

La idea es sencilla: antes de aprender información real, la inteligencia artificial primero “aprende” que todavía no sabe nada.

Durante esta fase inicial, la red neuronal experimenta con datos caóticos y resultados arbitrarios, lo que obliga al sistema a desarrollar niveles de confianza mucho más bajos y cercanos al azar. Según los autores, esto ayuda a que posteriormente exista una mejor relación entre la precisión real del modelo y el nivel de seguridad con el que responde.

Visualización 3D de un cerebro artificial con redes neuronales luminosas, datos caóticos flotando bajo una cúpula de vidrio que se ordenan en una interfaz de datos.
Una visualización conceptual de alta definición muestra una IA aprendiendo a detectar errores con redes neuronales activas en un cerebro artificial, transformando datos caóticos en información estructurada en un entorno científico futurista. (Imagen Ilustrativa Infobae)

En otras palabras, si el sistema no tiene suficiente información, será menos propenso a inventar respuestas con total seguridad.

Aplicaciones más allá de ChatGPT

Aunque el debate sobre las alucinaciones suele centrarse en chatbots como OpenAI ChatGPT o Google Gemini, el impacto potencial de este avance va mucho más allá.

Los sistemas de inteligencia artificial ya forman parte de tecnologías utilizadas en vehículos autónomos, drones, sistemas de vigilancia industrial y herramientas médicas de apoyo al diagnóstico. En todos estos casos, reconocer cuándo existe incertidumbre puede ser tan importante como generar una respuesta correcta.

Los investigadores explican que la propuesta también abre la puerta al desarrollo de capacidades cercanas a la metacognición, es decir, la posibilidad de que la IA sea consciente de las limitaciones de su propio conocimiento.

Dos figuras holográficas, ChatGPT y Gemini, interactúan con paneles de control futuristas mostrando indicadores de confianza y duda en un entorno digital.
Representación artística de ChatGPT y Gemini como asistentes virtuales futuristas, interactuando con información compleja y mostrando sus respectivos niveles de confianza y duda. (Imagen Ilustrativa Infobae)

El profesor Se-Bum Paik, autor principal del trabajo, sostuvo que el estudio demuestra cómo principios inspirados en el desarrollo cerebral podrían ayudar a crear sistemas más parecidos al razonamiento humano.

El desafío de construir una IA más confiable

La industria tecnológica lleva años intentando reducir las alucinaciones de la inteligencia artificial. Empresas como Apple, Microsoft, Anthropic y Google trabajan constantemente en mejorar la precisión y fiabilidad de sus modelos.

Sin embargo, los especialistas coinciden en que todavía no existe una solución definitiva. Los modelos continúan siendo vulnerables a errores, contradicciones o respuestas fabricadas, especialmente cuando se enfrentan a información ambigua o preguntas fuera de su entrenamiento.

La propuesta de KAIST representa un nuevo enfoque dentro de esa búsqueda: enseñar a la inteligencia artificial no solo a responder, sino también a reconocer cuándo no tiene una respuesta segura.

PUBLICIDAD

PUBLICIDAD