OpenAI anunció la implementación de nuevas estrategias para prevenir malos usos de la Inteligencia Artificial

Expertos en seguridad nacional y política pública son ahora parte del equipo de la compañía tecnológica para garantizar un desarrollo ético de la IA

Compartir
Compartir articulo
Bajo la dirección de Aleksander Madry, el equipo de Open IA evaluará el potencial instructivo de IA en la creación de amenazas como armas químicas. (Imagen ilustrativa Infobae)
Bajo la dirección de Aleksander Madry, el equipo de Open IA evaluará el potencial instructivo de IA en la creación de amenazas como armas químicas. (Imagen ilustrativa Infobae)

OpenAI, la empresa de inteligencia artificial que está detrás de ChatGPT, expuso sus planes para anticiparse a lo que cree que podrían ser graves peligros de la tecnología que desarrolla, como permitir que los malos actores aprendan a construir armas químicas y biológicas.

El equipo de “Preparación” de OpenAI, dirigido por el profesor de Inteligencia Artificial del MIT Aleksander Madry, contratará a investigadores en Inteligencia Artificial, informáticos, expertos en seguridad nacional y profesionales de la política para supervisar su tecnología, probarla continuamente y advertir a la empresa si cree que alguna de sus capacidades de Inteligencia Artificial se está volviendo peligrosa.

El equipo se sitúa entre el grupo de “Sistemas de seguridad” de OpenAI, que trabaja en problemas existentes como la infusión de prejuicios racistas en la IA, y el equipo de “Superalineación” de la empresa, que investiga cómo garantizar que la IA no perjudique a los humanos en un futuro imaginado en el que la tecnología haya superado completamente a la inteligencia humana.

La presencia creciente de IA en ámbitos cotidianos plantea desafíos de seguridad que OpenAI se propone abordar con un equipo especializado. (Imagen ilustrativa Infobae)
La presencia creciente de IA en ámbitos cotidianos plantea desafíos de seguridad que OpenAI se propone abordar con un equipo especializado. (Imagen ilustrativa Infobae)

La popularidad de ChatGPT y el avance de la tecnología de IA generativa han desencadenado un debate en la comunidad tecnológica sobre lo peligrosa que puede llegar a ser. A principios de este año, destacados líderes de IA de OpenAI, Google y Microsoft advirtieron que la tecnología podría suponer un peligro existencial para la humanidad, al mismo nivel que las pandemias o las armas nucleares.

Otros investigadores de la IA han afirmado que centrarse en esos grandes y aterradores riesgos permite a las empresas desviar la atención de los efectos nocivos que la tecnología ya está teniendo.

Un grupo cada vez mayor de líderes empresariales de la IA afirma que los riesgos son exagerados y que las empresas deberían seguir adelante con el desarrollo de la tecnología para ayudar a mejorar la sociedad, y ganar dinero haciéndolo.

OpenAI ha enhebrado un término medio en este debate en su postura pública. Su director ejecutivo, Sam Altman, cree que existen graves riesgos a largo plazo inherentes a la tecnología, pero que también hay que centrarse en solucionar los problemas actuales. Según Altman, la regulación para evitar los efectos nocivos de la IA no debería dificultar la competencia de las empresas más pequeñas. Al mismo tiempo, ha empujado a la empresa a comercializar su tecnología y a recaudar fondos para acelerar su crecimiento.

La regulación de la IA según OpenAI debería proteger la sociedad sin obstaculizar la innovación en startups. (iStock)
La regulación de la IA según OpenAI debería proteger la sociedad sin obstaculizar la innovación en startups. (iStock)

Madry, un veterano investigador de IA que dirige el Center for Deployable Machine Learning del MIT y codirige el MIT AI Policy Forum, se incorporó a OpenAI a principios de este año. Formaba parte de un pequeño grupo de dirigentes de OpenAI que dimitieron cuando Altman fue despedido por el consejo de administración de la empresa en noviembre. Madry regresó a la empresa cuando Altman fue readmitido cinco días después.

OpenAI, que se rige por un consejo sin ánimo de lucro cuya misión es hacer avanzar la IA y hacerla útil para todos los humanos, se encuentra en pleno proceso de selección de nuevos miembros del consejo después de que tres de los cuatro consejeros que despidieron a Altman dimitieran como parte de su regreso.

A pesar de las “turbulencias” en el liderazgo, Madry cree que la junta de OpenAI se toma en serio los riesgos de la IA que está investigando. “Me di cuenta de que si realmente quiero dar forma a cómo la IA está impactando en la sociedad, ¿por qué no ir a una empresa que realmente lo está haciendo?”.

El equipo de preparación está contratando a expertos en seguridad nacional ajenos al mundo de la IA que puedan ayudar a la empresa a entender cómo afrontar los grandes riesgos. OpenAI está iniciando conversaciones con organizaciones como la Administración Nacional de Seguridad Nuclear, que supervisa la tecnología nuclear en Estados Unidos, para garantizar que la empresa pueda estudiar adecuadamente los riesgos de la IA, dijo Madry.

El debate sobre el futuro y seguridad de la IA se intensifica frente a la popularidad de plataformas como ChatGPT. (Imagen Ilustrativa Infobae)
El debate sobre el futuro y seguridad de la IA se intensifica frente a la popularidad de plataformas como ChatGPT. (Imagen Ilustrativa Infobae)

El equipo vigilará cómo y cuándo su IA puede instruir a la gente para piratear ordenadores o construir armas químicas, biológicas y nucleares peligrosas, más allá de lo que la gente puede encontrar en Internet mediante la investigación habitual. Madry busca personas que “realmente piensen: ‘¿Cómo puedo jugar con este conjunto de reglas? ¿Cómo puedo ser más ingenioso en mi maldad?’”.

La empresa también permitirá que “terceras partes cualificadas e independientes” ajenas a OpenAI prueben su tecnología, afirma en una entrada de blog publicada el lunes. Madry dijo que no estaba de acuerdo con el debate entre los “catastrofistas” de la IA, que temen que la tecnología ya haya alcanzado la capacidad de superar la inteligencia humana, y los “aceleracionistas”, que quieren eliminar todas las barreras al desarrollo de la IA.

“En mi opinión, este marco de aceleración y desaceleración es extremadamente simplista. La IA tiene un montón de ventajas, pero también tenemos que trabajar para asegurarnos de que las ventajas se hagan realidad y las desventajas no”.

(c) 2023, The Washington Post