
La inteligencia artificial (IA) generativa como la empleada en Chatbots famosos como ChatGPT o Gemini de Google ha ganado popularidad en los últimos años, mostrada como una herramienta capaz de crear desde textos coherentes hasta imágenes sorprendentes.
Sin embargo, un reciente estudio llevado a cabo por la Universidad de Oxford, en Inglaterra, publicado en la revista Nature, ha encendido las alarmas sobre un posible defecto inherente a este tipo de tecnologías cuando se utilizan para entrenar otras IA.
El fenómeno, denominado “colapso del modelo”, sugiere que al entrenar nuevos modelos de IA utilizando datos generados por IA anteriores, se corre el riesgo de que los resultados se vuelvan cada vez menos coherentes y precisos con el tiempo.
Cuál es el enemigo del avance de la inteligencia artificial

El enemigo de la inteligencia artificial, de acuerdo a lo que concluye el estudio de Oxford, sería los mismos modelos de IA que existen. Esto es producto de que, a medida que los datos originales son reemplazados por información generada por las IA, los modelos subsecuentes podrían empezar a producir respuestas sin sentido.
El estudio de Oxford se concentra principalmente en la observación de que las IA entrenadas con datos generados por otras IA tienden a degradar la calidad de los resultados tras pocas generaciones.
Este fenómeno tiene serias implicaciones para la calidad de los modelos de aprendizaje automático y, por ende, para los usuarios que dependen de estas tecnologías.
Por ejemplo, una IA dedicada a resumir artículos científicos podría acabar generando respuestas erróneas o irrelevantes, afectando la confianza y la calidad de la información presentada.
Cómo se equivocará la IA en el futuro, según la universidad de Oxford

El estudio de la Universidad de Oxford mencionó un caso llamativo en el que se ilustra el riesgo a futuro. En él, un modelo de IA fue entrenado inicialmente con texto sobre arquitectura medieval.
Después de pasar por nueve generaciones de entrenamiento con datos generados por IA, el modelo concluyó con una salida completamente desconectada del contenido original: un listado de liebres norteamericanas. Este resultado reflejó cómo la precisión y veracidad de la información pueden deteriorarse notablemente.
El equipo de expertos sugiere que este efecto de “colapso del modelo” es casi inevitable si se continua utilizando datos generados por anteriores IA. El estudio pone de relieve la necesidad imperiosa de emplear datos fiables y, preferentemente, datos originados por humanos para el entrenamiento de estos modelos.
La precisión y la coherencia a largo plazo de los modelos de IA y su impacto a nivel social podrían depender en gran medida de esta práctica.
Por qué la precisión de la inteligencia artificial genera alerta

Que la inteligencia artificial sea más precisa es algo que preocupa a varios sectores que podrían subsistir y mejorar su operatividad gracias a ella.
No obstante, pese a la gravedad del hallazgo, muchas compañías tecnológicas optan por utilizar datos generados por sus propias IA, intentando así evitar posibles demandas costosas o reducir gastos.
Esta estrategia empresarial, aunque económica en el corto plazo, podría acelerar el proceso degenerativo descrito en el estudio de Oxford, comprometiendo la calidad y fiabilidad de sus productos de IA a largo plazo.
Qué pasa si colapsa el modelo de la inteligencia artificial

El “colapso del modelo” plantea preguntas cruciales sobre el verdadero valor y la aplicación práctica de estas tecnologías. Si la tendencia de depender cada vez más en datos generados por IA persiste, la utilidad y fiabilidad de los modelos de IA podrían verse comprometidas.
Varios expertos han expresado sus preocupaciones sobre el uso indiscriminado de datos generados por IA, alertando que la calidad de estas tecnologías podría degradarse, transformándolas en herramientas potencialmente perjudiciales.
También, hay quienes mantienen una posición más optimista respecto a los hallazgos del estudio. Algunos expertos argumentan que, en la práctica, siempre habrá una cantidad suficiente de datos generados por humanos que podrían mitigar parcialmente los efectos del “colapso del modelo”.
Esta perspectiva plantea la posibilidad de que un equilibrio bien gestionado entre datos humanos y datos generados por IA pueda ayudar a mantener la calidad y precisión de los futuros modelos de IA.
Últimas Noticias
Argentina: lista de los 10 videos musicales que son tendencia en YouTube este día
La plataforma más popular de videos tiene presencia en 104 países y alrededor de cada minuto se suben a la plataforma 500 horas de contenido

YouTube en Colombia: la lista de los 10 videos más reproducidos que son tendencia hoy
Descubre quiénes son los artistas que han entrado al ranking con sus nuevos clips

El “padrino de la IA” afirma que las empresas solo se centran en los beneficios a corto plazo de esta tecnología
Geoffrey Hinton señala que la mayoría de las compañías tecnológicas solo buscan resultados rápidos con la inteligencia artificial

Ranking de tendencias en YouTube Chile: los 10 videos más reproducidos
La plataforma más popular de videos tiene presencia en 104 países y alrededor de cada minuto se suben a la plataforma 500 horas de contenido

Se acabaron los reinicios forzados: Microsoft permitirá pausar la actualizaciones en Windows indefinidamente
La nueva función llega tras múltiples problemas en actualizaciones recientes que afectaron la estabilidad y el arranque de miles de computadoras



