Empleados y ex empleados de Inteligencia Artificial advierten de los peligros de esta tecnología

Estos trabajadores solicitan a las empresas un compromiso con una mayor transparencia y una cultura de crítica responsable

Empleados actuales y antiguos de OpenAI y otros alertan sobre graves riesgos de la IA en una carta enviada a las empresas tecnológicas. (EFE/EPA/Robert Ghement)

Un puñado de empleados actuales y antiguos de destacadas empresas de inteligencia artificial advirtieron que esta tecnología plantea graves riesgos para la humanidad en una carta enviada el martes 4 de junio, en la que piden a las empresas que se comprometan a ser más transparentes y a fomentar una cultura de la crítica que las haga más responsables.

La carta, firmada por 13 personas, incluidos empleados actuales y antiguos de OpenAIAnthropic y DeepMind de Google, afirma que la IA puede exacerbar la desigualdad, aumentar la desinformación y permitir que los sistemas de IA se vuelvan autónomos y causen muertes significativas. Aunque estos riesgos podrían mitigarse, las empresas que controlan el software tienen “fuertes incentivos financieros” para limitar la supervisión, señalaron.

La medida llega en un momento en que OpenAI se enfrenta a un éxodo de personal. Muchos críticos han visto en las salidas destacadas -incluidos el cofundador de OpenAIIlya Sutskever, y el investigador principal Jan Leike- una reprimenda a los dirigentes de la empresa, que según algunos empleados persiguen beneficios a costa de hacer más seguras las tecnologías de OpenAI.

Read more!

Daniel Kokotajlo, antiguo empleado de OpenAI, declaró que abandonó la empresa por la indiferencia de la compañía ante los riesgos de la inteligencia artificial.

La carta, firmada por empleados de OpenAI, Anthropic y DeepMind, llama a fomentar la transparencia y la crítica en las empresas de inteligencia artificial. (REUTERS/Dado Ruvic)

“Perdí la esperanza de que actuaran con responsabilidad, sobre todo en su búsqueda de la inteligencia artificial general”, afirmó en un comunicado, en referencia a un término muy controvertido que hace referencia a ordenadores que igualan la potencia de los cerebros humanos. “Ellos y otros se han creído el planteamiento de ‘moverse rápido y romper cosas’, y eso es lo contrario de lo que se necesita para una tecnología tan potente y tan poco comprendida”.

Liz Bourgeois, portavoz de OpenAI, dijo que la empresa está de acuerdo en que “un debate riguroso es crucial dada la importancia de esta tecnología”. Los representantes de Anthropic y Google no respondieron inmediatamente a una solicitud de comentarios.

Los empleados afirmaron que, a falta de supervisión gubernamental, los trabajadores de IA son las “pocas personas” que pueden exigir responsabilidad a las empresas. Señalaron que se ven obstaculizados por “amplios acuerdos de confidencialidad” y que las protecciones ordinarias de los denunciantes son “insuficientes” porque se centran en actividades ilegales, y los riesgos sobre los que advierten aún no están regulados.

La carta pedía a las empresas de IA que se comprometieran a cumplir cuatro principios para permitir una mayor transparencia y protección de los denunciantes.

OpenAI enfrenta desafíos internos sobre la comunicación de prácticas de seguridad, circunstancia que contribuyó a la destitución temporal de su CEO Sam Altman. (AP/Eric Risberg)

Esos principios incluyen el compromiso de no suscribir ni aplicar acuerdos que prohíban criticar los riesgos; el llamamiento a establecer un proceso anónimo para que los empleados actuales y antiguos planteen sus preocupaciones; el apoyo a una cultura de la crítica; y la promesa de no tomar represalias contra los empleados actuales y antiguos que compartan información confidencial para dar la voz de alarma “después de que otros procesos hayan fracasado”.

En diciembre, The Washington Post informó de que altos cargos de OpenAI temían represalias por parte del consejero delegado Sam Altman, advertencias que precedieron a su destitución temporal. En una reciente entrevista en podcast, Helen Toner, antigua miembro del consejo de OpenAI, afirmó que parte de la decisión de la organización sin ánimo de lucro de destituir a Altman como consejero delegado a finales del año pasado se debió a su falta de comunicación sincera en materia de seguridad.

“Nos dio información inexacta sobre el pequeño número de procesos de seguridad formales que la empresa tenía en marcha, lo que significaba que era básicamente imposible para el consejo saber lo bien que estaban funcionando esos procesos de seguridad”, dijo a “The TED AI Show” en mayo.

La carta fue respaldada por luminarias de la IA como Yoshua Bengio y Geoffrey Hinton, considerados “padrinos de la IA”, y el célebre informático Stuart Russell.

(c) 2024 , The Washington Post

Read more!

Más Noticias

Estos pacientes vieron lo que viene después de la muerte: ¿debemos creerles?

Los investigadores han desarrollado un modelo para explicar la ciencia de las experiencias cercanas a la muerte. Otros los han cuestionado

El enfrentamiento sobre las tácticas de ICE podría desencadenar otro cierre parcial del gobierno en Estados Unidos

Los demócratas han exigido que los republicanos acepten una serie de medidas de rendición de cuentas para controlar al personal del Servicio de Inmigración y Control de Aduanas de Estados Unidos y otras agencias

Está en forma como un joven de 30: el secreto detrás de un corredor de 82 años que sorprende a la ciencia

La historia de Juan López García, quien rompió marcas mundiales en la ultramaratón para personas de su edad, revela nuevos hallazgos sobre el envejecimiento y la actividad física que despiertan la curiosidad de investigadores y atletas

La matanza de manifestantes durante las protestas en Irán alcanzó un nivel raramente visto

Una organización de derechos humanos documenta una cifra que podría seguir aumentando mientras continúa la verificación de miles de casos, en una violencia comparable a las matanzas de Tiananmén y Hama

Los aliados de Estados Unidos alertaron que Irán mantiene la capacidad de infligir un daño mortal con sus misiles

Incluso después de la guerra de 12 días con Israel, Teherán conserva el arsenal necesario para atacar a los aliados y las bases estadounidenses. Los ataques de Washington conducirían a una “guerra regional”, afirmó el líder supremo Alí Khamenei