
Expertos en inteligencia artificial han expresado su preocupación después de que su trabajo se citara en una carta abierta -cofirmada por Elon Musk- en la que se exigía una pausa urgente en la investigación.
La carta, fechada el 22 de marzo y con más de 1.800 firmas hasta el viernes, pedía una pausa de seis meses en el desarrollo de sistemas “más potentes” que el nuevo GPT-4 de OpenAI, respaldado por Microsoft, que puede mantener conversaciones similares a las humanas, componer canciones y resumir documentos extensos.
PUBLICIDAD
Desde el lanzamiento el año pasado de ChatGPT, el predecesor de GPT-4, las empresas competidoras se han apresurado a lanzar productos similares.

La carta abierta afirma que los sistemas de IA con “inteligencia humana competitiva” plantean profundos riesgos para la humanidad, y cita 12 investigaciones de expertos, entre ellos académicos universitarios y empleados y ex empleados de OpenAI, Google y su filial DeepMind.
PUBLICIDAD
Grupos de la sociedad civil de Estados Unidos y la UE han presionado desde entonces a los parlamentarios para que frenen la investigación de OpenAI. OpenAI no respondió inmediatamente a los pedidos de comentarios por parte de la agencia de noticias Reuters.
Los críticos han acusado al Future of Life Institute (FLI), la organización que está detrás de la carta y que está financiada principalmente por la Musk Foundation, de dar prioridad a escenarios apocalípticos imaginarios frente a preocupaciones más inmediatas sobre la IA, como los prejuicios racistas o sexistas que se programan en las máquinas.
PUBLICIDAD
Entre las investigaciones citadas se encuentra "On the Dangers of Stochastic Parrots" (Sobre los peligros de los loros estocásticos), un conocido artículo del que es coautora Margaret Mitchell, que anteriormente supervisó la investigación ética de la IA en Google.

Mitchell, ahora jefa de ética científica en la empresa de IA Hugging Face, criticó la carta y dijo a Reuters que no estaba claro qué se consideraba “más potente que GPT4″. ”Al dar por sentadas muchas ideas cuestionables, la carta afirma un conjunto de prioridades y una narrativa sobre la IA que beneficia a los partidarios de FLI”, dijo. “Ignorar los daños activos en este momento es un privilegio que algunos de nosotros no tenemos”
PUBLICIDAD
Sus coautores Timnit Gebru y Emily M. Bender criticaron la carta en Twitter, y esta última calificó algunas de sus afirmaciones de "desquiciadas".
El presidente de FLI, Max Tegmark, dijo a Reuters que la campaña no era un intento de obstaculizar la ventaja corporativa de OpenAI. ”Es bastante gracioso. He visto a gente decir: ‘Elon Musk está tratando de frenar a la competencia’”, dijo, que añadió que Musk no tuvo ningún papel en la redacción de la carta. “No se trata de una empresa”.
PUBLICIDAD
Riesgos ahora
Shiri Dori-Hacohen, profesora adjunta de la Universidad de Connecticut, también criticó que se mencionara su trabajo en la carta. El año pasado, Dori-Hacohen fue coautora de un estudio en el que sostenía que el uso generalizado de la inteligencia artificial ya planteaba graves riesgos.
Su investigación sostenía que el uso actual de sistemas de IA podría influir en la toma de decisiones en relación con el cambio climático, la guerra nuclear y otras amenazas existenciales.
PUBLICIDAD
Según declaró a Reuters: “La IA no necesita alcanzar una inteligencia de nivel humano para agravar esos riesgos”. ”Hay riesgos no existenciales que son muy, muy importantes, pero que no reciben el mismo tasa de atención al nivel de Hollywood”.
Cuando se le pidió que comentara las críticas, Tegmark, de FLI, dijo que tanto los riesgos a corto como a largo plazo de la IA deberían tomarse en serio.
PUBLICIDAD
“Si citamos a alguien, sólo significa que afirmamos que respalda esa frase. No significa que estén respaldando la letra, o que respaldemos todo lo que piensan”, dijo a Reuters.
Dan Hendrycks, director del Center for AI Safety (Centro para la Seguridad de la Inteligencia Artificial), con sede en California, también citado en la carta, defendió su contenido y dijo a Reuters que era sensato tener en cuenta los casos de cisne negro, aquellos que parecen improbables, pero que tendrían consecuencias devastadoras.
PUBLICIDAD
(Con información de Reuters)
Seguir leyendo:
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
El Metro de Los Ángeles lanza una aplicación con datos en tiempo real y acceso en 40 idiomas
La innovación tecnológica refuerza la inclusión y adapta el transporte público a una ciudad dinámica y multicultural

JD Vance confirmó avances en las negociaciones con Irán pero insistió en que Teherán no podrá desarrollar un arma nuclear
El vicepresidente de Estados Unidos aseguró que la Casa Blanca mantiene abiertos los contactos diplomáticos con Teherán y países árabes para sostener la tregua
El embargo salarial y la pérdida de reembolsos fiscales afectan a millones con préstamos estudiantiles en Estados Unidos
El Departamento de Educación implementó una prórroga que bloquea temporalmente cobros automáticos, brindando a los prestatarios la oportunidad de negociar acuerdos o buscar la rehabilitación de sus créditos antes de la reanudación de sanciones

California estrena su primer sistema de gestión de autopistas con inteligencia artificial
El plan piloto ya opera en la autopista 68 y busca aliviar la congestión y mejorar la movilidad con tecnología avanzada en uno de los tramos más transitados del estado



