
La inteligencia artificial (IA) generativa como la empleada en Chatbots famosos como ChatGPT o Gemini de Google ha ganado popularidad en los últimos años, mostrada como una herramienta capaz de crear desde textos coherentes hasta imágenes sorprendentes.
Sin embargo, un reciente estudio llevado a cabo por la Universidad de Oxford, en Inglaterra, publicado en la revista Nature, ha encendido las alarmas sobre un posible defecto inherente a este tipo de tecnologías cuando se utilizan para entrenar otras IA.
El fenómeno, denominado “colapso del modelo”, sugiere que al entrenar nuevos modelos de IA utilizando datos generados por IA anteriores, se corre el riesgo de que los resultados se vuelvan cada vez menos coherentes y precisos con el tiempo.
Cuál es el enemigo del avance de la inteligencia artificial

El enemigo de la inteligencia artificial, de acuerdo a lo que concluye el estudio de Oxford, sería los mismos modelos de IA que existen. Esto es producto de que, a medida que los datos originales son reemplazados por información generada por las IA, los modelos subsecuentes podrían empezar a producir respuestas sin sentido.
El estudio de Oxford se concentra principalmente en la observación de que las IA entrenadas con datos generados por otras IA tienden a degradar la calidad de los resultados tras pocas generaciones.
Este fenómeno tiene serias implicaciones para la calidad de los modelos de aprendizaje automático y, por ende, para los usuarios que dependen de estas tecnologías.
Por ejemplo, una IA dedicada a resumir artículos científicos podría acabar generando respuestas erróneas o irrelevantes, afectando la confianza y la calidad de la información presentada.
Cómo se equivocará la IA en el futuro, según la universidad de Oxford

El estudio de la Universidad de Oxford mencionó un caso llamativo en el que se ilustra el riesgo a futuro. En él, un modelo de IA fue entrenado inicialmente con texto sobre arquitectura medieval.
Después de pasar por nueve generaciones de entrenamiento con datos generados por IA, el modelo concluyó con una salida completamente desconectada del contenido original: un listado de liebres norteamericanas. Este resultado reflejó cómo la precisión y veracidad de la información pueden deteriorarse notablemente.
El equipo de expertos sugiere que este efecto de “colapso del modelo” es casi inevitable si se continua utilizando datos generados por anteriores IA. El estudio pone de relieve la necesidad imperiosa de emplear datos fiables y, preferentemente, datos originados por humanos para el entrenamiento de estos modelos.
La precisión y la coherencia a largo plazo de los modelos de IA y su impacto a nivel social podrían depender en gran medida de esta práctica.
Por qué la precisión de la inteligencia artificial genera alerta

Que la inteligencia artificial sea más precisa es algo que preocupa a varios sectores que podrían subsistir y mejorar su operatividad gracias a ella.
No obstante, pese a la gravedad del hallazgo, muchas compañías tecnológicas optan por utilizar datos generados por sus propias IA, intentando así evitar posibles demandas costosas o reducir gastos.
Esta estrategia empresarial, aunque económica en el corto plazo, podría acelerar el proceso degenerativo descrito en el estudio de Oxford, comprometiendo la calidad y fiabilidad de sus productos de IA a largo plazo.
Qué pasa si colapsa el modelo de la inteligencia artificial

El “colapso del modelo” plantea preguntas cruciales sobre el verdadero valor y la aplicación práctica de estas tecnologías. Si la tendencia de depender cada vez más en datos generados por IA persiste, la utilidad y fiabilidad de los modelos de IA podrían verse comprometidas.
Varios expertos han expresado sus preocupaciones sobre el uso indiscriminado de datos generados por IA, alertando que la calidad de estas tecnologías podría degradarse, transformándolas en herramientas potencialmente perjudiciales.
También, hay quienes mantienen una posición más optimista respecto a los hallazgos del estudio. Algunos expertos argumentan que, en la práctica, siempre habrá una cantidad suficiente de datos generados por humanos que podrían mitigar parcialmente los efectos del “colapso del modelo”.
Esta perspectiva plantea la posibilidad de que un equilibrio bien gestionado entre datos humanos y datos generados por IA pueda ayudar a mantener la calidad y precisión de los futuros modelos de IA.
Últimas Noticias
Mercado de criptomonedas: cuál es el valor de ethereum
Ethereum fue creada en 2015 por el programador Vitalik Buterin, con la intención de impulsar un instrumento para aplicaciones descentralizadas y colaborativas

Cómo ha cambiado el valor de la criptomoneda bitcoin en el último día
El bitcoin fue creado por Satoshi Nakamoto en el 2008 y lanzado al mercado oficialmente el 3 de enero de 2009 con “el bloque de génesis” de 50 monedas

Cómo usar IA para reducir hasta un 40% los intentos de fraude en Navidad
La adopción de metodologías predictivas y la capacitación continua emergen como factores decisivos para reducir incidentes

Qué trabajos dominarán en el futuro, según Jensen Huang, CEO de Nvidia
La transformación industrial y la modernización de fábricas abren nuevas oportunidades para quienes apuestan por carreras técnicas
Cofundador de Neuralink revela su nuevo proyecto: un chip en la retina para restaurar la visión
La miniaturización y la estimulación directa de células en la retina abren una nueva era para quienes buscan recuperar habilidades visuales perdidas



