Advierten que están creando una IA capaz de superar a los humanos: esta es la historia

Empleados antiguos y actuales de OpenAI destacaron cómo la competencia feroz por crear una tecnología que sobrepase la naturaleza humana puede impactar en el bienestar económico y social

Guardar

Nuevo

La advertencia radica en la falta de un sistema que vigile proyectos de investigación de IA que se relacionen en favor de la humanidad. (Imagen Ilustrativa Infobae)
La advertencia radica en la falta de un sistema que vigile proyectos de investigación de IA que se relacionen en favor de la humanidad. (Imagen Ilustrativa Infobae)

Varios antiguos y actuales empleados de OpenAI, han levantado una voz de alerta respecto a la falta de transparencia en torno a los riesgos asociados con el desarrollo de la Inteligencia Artificial General (IAG).

Esta IAG se distingue de la inteligencia artificial generativa no solo por replicar acciones humanas, sino también por entender el contexto y la complejidad de estas acciones a un nivel más profundo, siendo un camino a la creación de una tecnología que pueda superar al conocimiento humano.

Uno de los extrabajadores de OpenA en alzar su voz, fue Carroll Wainwright, que tras su renuncia al equipo de alineación de la empresa, junto a otros empleados firmaron una carta denunciando esta problemática, expresando su preocupación sobre cómo se maneja el desarrollo de esta tecnología potencialmente poderosa.

Cuáles son los riesgos de esta futura inteligencia artificial

Trabajadores antiguos y actuales de OpenAI expusieron los peligros de la falta de supervisión. (Foto: press@righttowarn.ai)
Trabajadores antiguos y actuales de OpenAI expusieron los peligros de la falta de supervisión. (Foto: press@righttowarn.ai)

Wainwright formó parte del equipo de superalineamiento en OpenAI, cuya misión es asegurar que los modelos de inteligencia artificial desarrollados por la compañía sean seguros y se comporten de acuerdo con los valores humanos.

Este equipo ganó particular relevancia luego del lanzamiento de ChatGPT, un chatbot que superó todas las expectativas en cuanto a su desempeño.

Pero, con la creación de modelos cada vez más avanzados, el equipo de se enfrentaba al desafío de encontrar métodos técnicos para mantener el control sobre estas tecnologías emergentes. En la carta, Wainwright y otros empleados identificaron tres riesgos críticos asociados a la IAG.

  • El primero es la sustitución de empleos cualificados, como abogados, médicos y periodistas, por sistemas automatizados.
  • El segundo riesgo es el impacto social y mental de la mayor dependencia de asistentes personales de IA, que podrían cambiar la dinámica de las relaciones humanas y el bienestar psicológico.
  • El último riesgo concierne al control y alineación de la propia tecnología: un modelo inteligente que supere a los humanos en capacidades cognitivas plantea severos problemas de alineación, es decir, cómo asegurar que la IAG actúe conforme a los deseos humanos en lugar de seguir objetivos propios.

Cuándo estará disponible una IA superior al ser humano

Expertos como Elon Musk son conscientes de la llegada una IA superior. (Foto: REUTERS/Gonzalo Fuentes/File Photo)
Expertos como Elon Musk son conscientes de la llegada una IA superior. (Foto: REUTERS/Gonzalo Fuentes/File Photo)

Aunque esta tecnología todavía no ha sido creada, las predicciones sobre su llegada varían. Figuras influyentes como Elon Musk estiman que podría desarrollarse en unos dos años, mientras que otros expertos, como Robin Li de Baidu, sugieren que su creación podría demorar hasta una década.

Por su parte, Wainwright, alineándose con una postura intermedia, calcula que la IAG podría ser una realidad en aproximadamente cinco años. Sin embargo, subraya enfáticamente que es vital abordar esta posibilidad con la mayor seriedad, dado su potencial para transformar radicalmente el mundo.

Qué cambios ha experimentado OpenAI

Los empleados aseguran que falta transparencia por parte de OpenAI . (Foto: EFE/EPA/WU HAO)
Los empleados aseguran que falta transparencia por parte de OpenAI . (Foto: EFE/EPA/WU HAO)

En la carta, los trabajadores vigentes y antiguos aclararon que su advertencia no se debió a hallazgos alarmantes específicos, sino a un cambio significativo en la orientación de OpenAI, que evolucionó de ser un laboratorio de investigación sin fines de lucro a una entidad comercial.

Este cambio, explicó Wainwright, redirigió los incentivos de la compañía hacia la obtención de ganancias, priorizando el éxito comercial de productos como ChatGPT, lanzado hace dos años, por encima de la investigación fundamental.

Cómo prevenir que la IA se enfrente a la humanidad

El riesgo afecta a varios espacios sociales y económicos por la perdida de empleos. (Imagen Ilustrativa Infobae)
El riesgo afecta a varios espacios sociales y económicos por la perdida de empleos. (Imagen Ilustrativa Infobae)

Respecto a la regulación, Wainwright confía en que las grandes empresas del sector, como Google y OpenAI, cumplirán con las normativas vigentes. No obstante, advierte que la brutal competencia en el sector podría poner en riesgo estos estándares de seguridad.

En vista de esto, tanto él como otros empleados abogan por la creación de un sistema que facilite la alerta a organismos independientes sobre cualquier peligro identificado dentro de sus empresas.

Asimismo, la preocupación sobre la regulación de la IA no es exclusiva de Estados Unidos. En marzo, el Parlamento Europeo ratificó la primera ley de inteligencia artificial de la Unión Europea (UE), que entrará en vigor en 2026.

Además, los reguladores en Estados Unidos han iniciado investigaciones antimonopolio contra empresas clave en el sector, como Microsoft, OpenAI y Nvidia, enfocándose en su creciente influencia.

Guardar

Nuevo