
OpenAI, la empresa de inteligencia artificial que está detrás de ChatGPT, expuso sus planes para anticiparse a lo que cree que podrían ser graves peligros de la tecnología que desarrolla, como permitir que los malos actores aprendan a construir armas químicas y biológicas.
El equipo de “Preparación” de OpenAI, dirigido por el profesor de Inteligencia Artificial del MIT Aleksander Madry, contratará a investigadores en Inteligencia Artificial, informáticos, expertos en seguridad nacional y profesionales de la política para supervisar su tecnología, probarla continuamente y advertir a la empresa si cree que alguna de sus capacidades de Inteligencia Artificial se está volviendo peligrosa.
PUBLICIDAD
El equipo se sitúa entre el grupo de “Sistemas de seguridad” de OpenAI, que trabaja en problemas existentes como la infusión de prejuicios racistas en la IA, y el equipo de “Superalineación” de la empresa, que investiga cómo garantizar que la IA no perjudique a los humanos en un futuro imaginado en el que la tecnología haya superado completamente a la inteligencia humana.

La popularidad de ChatGPT y el avance de la tecnología de IA generativa han desencadenado un debate en la comunidad tecnológica sobre lo peligrosa que puede llegar a ser. A principios de este año, destacados líderes de IA de OpenAI, Google y Microsoft advirtieron que la tecnología podría suponer un peligro existencial para la humanidad, al mismo nivel que las pandemias o las armas nucleares.
PUBLICIDAD
Otros investigadores de la IA han afirmado que centrarse en esos grandes y aterradores riesgos permite a las empresas desviar la atención de los efectos nocivos que la tecnología ya está teniendo.
Un grupo cada vez mayor de líderes empresariales de la IA afirma que los riesgos son exagerados y que las empresas deberían seguir adelante con el desarrollo de la tecnología para ayudar a mejorar la sociedad, y ganar dinero haciéndolo.
PUBLICIDAD
OpenAI ha enhebrado un término medio en este debate en su postura pública. Su director ejecutivo, Sam Altman, cree que existen graves riesgos a largo plazo inherentes a la tecnología, pero que también hay que centrarse en solucionar los problemas actuales. Según Altman, la regulación para evitar los efectos nocivos de la IA no debería dificultar la competencia de las empresas más pequeñas. Al mismo tiempo, ha empujado a la empresa a comercializar su tecnología y a recaudar fondos para acelerar su crecimiento.

Madry, un veterano investigador de IA que dirige el Center for Deployable Machine Learning del MIT y codirige el MIT AI Policy Forum, se incorporó a OpenAI a principios de este año. Formaba parte de un pequeño grupo de dirigentes de OpenAI que dimitieron cuando Altman fue despedido por el consejo de administración de la empresa en noviembre. Madry regresó a la empresa cuando Altman fue readmitido cinco días después.
PUBLICIDAD
OpenAI, que se rige por un consejo sin ánimo de lucro cuya misión es hacer avanzar la IA y hacerla útil para todos los humanos, se encuentra en pleno proceso de selección de nuevos miembros del consejo después de que tres de los cuatro consejeros que despidieron a Altman dimitieran como parte de su regreso.
A pesar de las “turbulencias” en el liderazgo, Madry cree que la junta de OpenAI se toma en serio los riesgos de la IA que está investigando. “Me di cuenta de que si realmente quiero dar forma a cómo la IA está impactando en la sociedad, ¿por qué no ir a una empresa que realmente lo está haciendo?”.
PUBLICIDAD
El equipo de preparación está contratando a expertos en seguridad nacional ajenos al mundo de la IA que puedan ayudar a la empresa a entender cómo afrontar los grandes riesgos. OpenAI está iniciando conversaciones con organizaciones como la Administración Nacional de Seguridad Nuclear, que supervisa la tecnología nuclear en Estados Unidos, para garantizar que la empresa pueda estudiar adecuadamente los riesgos de la IA, dijo Madry.

El equipo vigilará cómo y cuándo su IA puede instruir a la gente para piratear ordenadores o construir armas químicas, biológicas y nucleares peligrosas, más allá de lo que la gente puede encontrar en Internet mediante la investigación habitual. Madry busca personas que “realmente piensen: ‘¿Cómo puedo jugar con este conjunto de reglas? ¿Cómo puedo ser más ingenioso en mi maldad?’”.
PUBLICIDAD
La empresa también permitirá que “terceras partes cualificadas e independientes” ajenas a OpenAI prueben su tecnología, afirma en una entrada de blog publicada el lunes. Madry dijo que no estaba de acuerdo con el debate entre los “catastrofistas” de la IA, que temen que la tecnología ya haya alcanzado la capacidad de superar la inteligencia humana, y los “aceleracionistas”, que quieren eliminar todas las barreras al desarrollo de la IA.
“En mi opinión, este marco de aceleración y desaceleración es extremadamente simplista. La IA tiene un montón de ventajas, pero también tenemos que trabajar para asegurarnos de que las ventajas se hagan realidad y las desventajas no”.
PUBLICIDAD
(c) 2023, The Washington Post
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Crisis de citas en jóvenes de Estados Unidos: estos son los motivos, según un nuevo informe
El aumento de la dificultad para establecer relaciones afectivas preocupa a estudiantes universitarios y expertos sociales, según recientes investigaciones que muestran cómo la falta de confianza y habilidades sociales limita el desarrollo de lazos duraderos

La fuerza invisible que hace que los alimentos sean menos nutritivos
Investigaciones recientes revelan cómo el aumento del dióxido de carbono está disminuyendo vitaminas y minerales en cultivos básicos, lo que plantea nuevos retos para la nutrición y la seguridad alimentaria

Qué dice la Ley de Poderes de Guerra en Estados Unidos: la fecha límite para el conflicto con Irán llega a su fin
La legislación exige que el presidente obtenga la aprobación del Congreso para continuar las hostilidades más allá de 60 días. Tras dos meses de combates, Estados Unidos e Irán permanecen en un punto muerto, y cada uno confía en poder resistir más que el otro
Dónde se registran más visitas a urgencias por picaduras de garrapatas en Estados Unidos
Un incremento temprano de los casos ligados a mordeduras de estos parásitos ha sido reportado por autoridades sanitarias, que también advierten sobre la expansión de varias especies hacia nuevas regiones ante el cambio climático

Un portaaviones estadounidense abandonará Medio Oriente
El USS Gerald R. Ford, que lleva diez meses en alta mar, necesita reparaciones urgentes. Su partida, sin embargo, reduce la capacidad de fuego disponible mientras Trump presiona a Teherán para que firme la paz



