OpenAI anunció la implementación de nuevas estrategias para prevenir malos usos de la Inteligencia Artificial

Expertos en seguridad nacional y política pública son ahora parte del equipo de la compañía tecnológica para garantizar un desarrollo ético de la IA

Bajo la dirección de Aleksander Madry, el equipo de Open IA evaluará el potencial instructivo de IA en la creación de amenazas como armas químicas. (Imagen ilustrativa Infobae)

OpenAI, la empresa de inteligencia artificial que está detrás de ChatGPT, expuso sus planes para anticiparse a lo que cree que podrían ser graves peligros de la tecnología que desarrolla, como permitir que los malos actores aprendan a construir armas químicas y biológicas.

El equipo de “Preparación” de OpenAI, dirigido por el profesor de Inteligencia Artificial del MIT Aleksander Madry, contratará a investigadores en Inteligencia Artificial, informáticos, expertos en seguridad nacional y profesionales de la política para supervisar su tecnología, probarla continuamente y advertir a la empresa si cree que alguna de sus capacidades de Inteligencia Artificial se está volviendo peligrosa.

El equipo se sitúa entre el grupo de “Sistemas de seguridad” de OpenAI, que trabaja en problemas existentes como la infusión de prejuicios racistas en la IA, y el equipo de “Superalineación” de la empresa, que investiga cómo garantizar que la IA no perjudique a los humanos en un futuro imaginado en el que la tecnología haya superado completamente a la inteligencia humana.

Read more!
La presencia creciente de IA en ámbitos cotidianos plantea desafíos de seguridad que OpenAI se propone abordar con un equipo especializado. (Imagen ilustrativa Infobae)

La popularidad de ChatGPT y el avance de la tecnología de IA generativa han desencadenado un debate en la comunidad tecnológica sobre lo peligrosa que puede llegar a ser. A principios de este año, destacados líderes de IA de OpenAI, Google y Microsoft advirtieron que la tecnología podría suponer un peligro existencial para la humanidad, al mismo nivel que las pandemias o las armas nucleares.

Otros investigadores de la IA han afirmado que centrarse en esos grandes y aterradores riesgos permite a las empresas desviar la atención de los efectos nocivos que la tecnología ya está teniendo.

Un grupo cada vez mayor de líderes empresariales de la IA afirma que los riesgos son exagerados y que las empresas deberían seguir adelante con el desarrollo de la tecnología para ayudar a mejorar la sociedad, y ganar dinero haciéndolo.

OpenAI ha enhebrado un término medio en este debate en su postura pública. Su director ejecutivo, Sam Altman, cree que existen graves riesgos a largo plazo inherentes a la tecnología, pero que también hay que centrarse en solucionar los problemas actuales. Según Altman, la regulación para evitar los efectos nocivos de la IA no debería dificultar la competencia de las empresas más pequeñas. Al mismo tiempo, ha empujado a la empresa a comercializar su tecnología y a recaudar fondos para acelerar su crecimiento.

La regulación de la IA según OpenAI debería proteger la sociedad sin obstaculizar la innovación en startups. (iStock)

Madry, un veterano investigador de IA que dirige el Center for Deployable Machine Learning del MIT y codirige el MIT AI Policy Forum, se incorporó a OpenAI a principios de este año. Formaba parte de un pequeño grupo de dirigentes de OpenAI que dimitieron cuando Altman fue despedido por el consejo de administración de la empresa en noviembre. Madry regresó a la empresa cuando Altman fue readmitido cinco días después.

OpenAI, que se rige por un consejo sin ánimo de lucro cuya misión es hacer avanzar la IA y hacerla útil para todos los humanos, se encuentra en pleno proceso de selección de nuevos miembros del consejo después de que tres de los cuatro consejeros que despidieron a Altman dimitieran como parte de su regreso.

A pesar de las “turbulencias” en el liderazgo, Madry cree que la junta de OpenAI se toma en serio los riesgos de la IA que está investigando. “Me di cuenta de que si realmente quiero dar forma a cómo la IA está impactando en la sociedad, ¿por qué no ir a una empresa que realmente lo está haciendo?”.

El equipo de preparación está contratando a expertos en seguridad nacional ajenos al mundo de la IA que puedan ayudar a la empresa a entender cómo afrontar los grandes riesgos. OpenAI está iniciando conversaciones con organizaciones como la Administración Nacional de Seguridad Nuclear, que supervisa la tecnología nuclear en Estados Unidos, para garantizar que la empresa pueda estudiar adecuadamente los riesgos de la IA, dijo Madry.

El debate sobre el futuro y seguridad de la IA se intensifica frente a la popularidad de plataformas como ChatGPT. (Imagen Ilustrativa Infobae)

El equipo vigilará cómo y cuándo su IA puede instruir a la gente para piratear ordenadores o construir armas químicas, biológicas y nucleares peligrosas, más allá de lo que la gente puede encontrar en Internet mediante la investigación habitual. Madry busca personas que “realmente piensen: ‘¿Cómo puedo jugar con este conjunto de reglas? ¿Cómo puedo ser más ingenioso en mi maldad?’”.

La empresa también permitirá que “terceras partes cualificadas e independientes” ajenas a OpenAI prueben su tecnología, afirma en una entrada de blog publicada el lunes. Madry dijo que no estaba de acuerdo con el debate entre los “catastrofistas” de la IA, que temen que la tecnología ya haya alcanzado la capacidad de superar la inteligencia humana, y los “aceleracionistas”, que quieren eliminar todas las barreras al desarrollo de la IA.

“En mi opinión, este marco de aceleración y desaceleración es extremadamente simplista. La IA tiene un montón de ventajas, pero también tenemos que trabajar para asegurarnos de que las ventajas se hagan realidad y las desventajas no”.

(c) 2023, The Washington Post

Read more!

Más Noticias

Estos pacientes vieron lo que viene después de la muerte: ¿debemos creerles?

Los investigadores han desarrollado un modelo para explicar la ciencia de las experiencias cercanas a la muerte. Otros los han cuestionado

El enfrentamiento sobre las tácticas de ICE podría desencadenar otro cierre parcial del gobierno en Estados Unidos

Los demócratas han exigido que los republicanos acepten una serie de medidas de rendición de cuentas para controlar al personal del Servicio de Inmigración y Control de Aduanas de Estados Unidos y otras agencias

Está en forma como un joven de 30: el secreto detrás de un corredor de 82 años que sorprende a la ciencia

La historia de Juan López García, quien rompió marcas mundiales en la ultramaratón para personas de su edad, revela nuevos hallazgos sobre el envejecimiento y la actividad física que despiertan la curiosidad de investigadores y atletas

La matanza de manifestantes durante las protestas en Irán alcanzó un nivel raramente visto

Una organización de derechos humanos documenta una cifra que podría seguir aumentando mientras continúa la verificación de miles de casos, en una violencia comparable a las matanzas de Tiananmén y Hama

Los aliados de Estados Unidos alertaron que Irán mantiene la capacidad de infligir un daño mortal con sus misiles

Incluso después de la guerra de 12 días con Israel, Teherán conserva el arsenal necesario para atacar a los aliados y las bases estadounidenses. Los ataques de Washington conducirían a una “guerra regional”, afirmó el líder supremo Alí Khamenei