
Varios antiguos y actuales empleados de OpenAI, han levantado una voz de alerta respecto a la falta de transparencia en torno a los riesgos asociados con el desarrollo de la Inteligencia Artificial General (IAG).
Esta IAG se distingue de la inteligencia artificial generativa no solo por replicar acciones humanas, sino también por entender el contexto y la complejidad de estas acciones a un nivel más profundo, siendo un camino a la creación de una tecnología que pueda superar al conocimiento humano.
PUBLICIDAD
Uno de los extrabajadores de OpenA en alzar su voz, fue Carroll Wainwright, que tras su renuncia al equipo de alineación de la empresa, junto a otros empleados firmaron una carta denunciando esta problemática, expresando su preocupación sobre cómo se maneja el desarrollo de esta tecnología potencialmente poderosa.
Cuáles son los riesgos de esta futura inteligencia artificial

Wainwright formó parte del equipo de superalineamiento en OpenAI, cuya misión es asegurar que los modelos de inteligencia artificial desarrollados por la compañía sean seguros y se comporten de acuerdo con los valores humanos.
PUBLICIDAD
Este equipo ganó particular relevancia luego del lanzamiento de ChatGPT, un chatbot que superó todas las expectativas en cuanto a su desempeño.
Pero, con la creación de modelos cada vez más avanzados, el equipo de se enfrentaba al desafío de encontrar métodos técnicos para mantener el control sobre estas tecnologías emergentes. En la carta, Wainwright y otros empleados identificaron tres riesgos críticos asociados a la IAG.
PUBLICIDAD
- El primero es la sustitución de empleos cualificados, como abogados, médicos y periodistas, por sistemas automatizados.
- El segundo riesgo es el impacto social y mental de la mayor dependencia de asistentes personales de IA, que podrían cambiar la dinámica de las relaciones humanas y el bienestar psicológico.
- El último riesgo concierne al control y alineación de la propia tecnología: un modelo inteligente que supere a los humanos en capacidades cognitivas plantea severos problemas de alineación, es decir, cómo asegurar que la IAG actúe conforme a los deseos humanos en lugar de seguir objetivos propios.
Cuándo estará disponible una IA superior al ser humano

Aunque esta tecnología todavía no ha sido creada, las predicciones sobre su llegada varían. Figuras influyentes como Elon Musk estiman que podría desarrollarse en unos dos años, mientras que otros expertos, como Robin Li de Baidu, sugieren que su creación podría demorar hasta una década.
Por su parte, Wainwright, alineándose con una postura intermedia, calcula que la IAG podría ser una realidad en aproximadamente cinco años. Sin embargo, subraya enfáticamente que es vital abordar esta posibilidad con la mayor seriedad, dado su potencial para transformar radicalmente el mundo.
PUBLICIDAD
Qué cambios ha experimentado OpenAI

En la carta, los trabajadores vigentes y antiguos aclararon que su advertencia no se debió a hallazgos alarmantes específicos, sino a un cambio significativo en la orientación de OpenAI, que evolucionó de ser un laboratorio de investigación sin fines de lucro a una entidad comercial.
Este cambio, explicó Wainwright, redirigió los incentivos de la compañía hacia la obtención de ganancias, priorizando el éxito comercial de productos como ChatGPT, lanzado hace dos años, por encima de la investigación fundamental.
PUBLICIDAD
Cómo prevenir que la IA se enfrente a la humanidad

Respecto a la regulación, Wainwright confía en que las grandes empresas del sector, como Google y OpenAI, cumplirán con las normativas vigentes. No obstante, advierte que la brutal competencia en el sector podría poner en riesgo estos estándares de seguridad.
En vista de esto, tanto él como otros empleados abogan por la creación de un sistema que facilite la alerta a organismos independientes sobre cualquier peligro identificado dentro de sus empresas.
PUBLICIDAD
Asimismo, la preocupación sobre la regulación de la IA no es exclusiva de Estados Unidos. En marzo, el Parlamento Europeo ratificó la primera ley de inteligencia artificial de la Unión Europea (UE), que entrará en vigor en 2026.
Además, los reguladores en Estados Unidos han iniciado investigaciones antimonopolio contra empresas clave en el sector, como Microsoft, OpenAI y Nvidia, enfocándose en su creciente influencia.
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Lentes de contacto con IA y realidad aumentada: el dispositivo del futuro que ya está en desarrollo
Los prototipos ya incluyen sensores de glucosa, presión intraocular y microdisplays interactivos

La inteligencia artificial que detecta contradicciones entre lo que las personas dicen y eligen
Un sistema desarrollado por expertos de la Universidad Cornell expone discrepancias entre los parámetros establecidos y las preferencias expresadas, lo que permite alcanzar procesos más justos y transparentes

Anthropic vendió Cowork para democratizar la IA: las empresas que lo usaron descubrieron que no saben cuántos agentes tienen
Las grandes corporaciones promedian hoy 15 agentes de inteligencia artificial y proyectan alcanzar los 150.000 en los próximos tres años. Sin embargo, solo el 13 % considera contar con una gobernanza adecuada, mientras los responsables tecnológicos ya alertan sobre una proliferación descontrolada de estos sistemas

Por culpa de la IA, la Universidad de Princeton pondrá vigilancia en los exámenes tras más de 133 años
El sistema de honor estudiantil ya no es suficiente ante el auge de trampas con inteligencia artificial

Nvidia busca la perfección: ahora desarrolla robots que actúan igual que en las simulaciones
En colaboración con FANUC, presentan una plataforma que sincroniza dispositivos virtuales y reales en la industria



