
OpenAI ha sorprendido al mundo tecnológico al publicar una vacante con una remuneración anual de USD 555.000, más participación accionaria, para quien asuma el cargo de Head of Preparedness (jefe de preparación). Esta función, diseñada para anticipar y contener los riesgos más extremos vinculados al avance de la inteligencia artificial, aparece en un contexto de inquietud creciente entre los líderes del sector y pone el foco en los desafíos éticos, legales y sociales que enfrenta la industria.
Puesto de alto riesgo en inteligencia artificial: expectativas y advertencias
El puesto de jefe de preparación de OpenAI implica tareas de vigilancia y control sobre las amenazas emergentes asociadas a los sistemas de IA más avanzados. La empresa solicita que el candidato identifique, evalúe y reduzca riesgos en áreas críticas como ciberseguridad, salud mental y peligros biológicos.
Según la descripción oficial, la persona seleccionada deberá también monitorear las llamadas “capacidades de frontera”; es decir, aquellas funciones de la IA que pueden causar daños graves si se usan de forma indebida.

Sam Altman, director ejecutivo de la compañía, fue contundente al presentar la propuesta laboral: “Va a ser un trabajo estresante y vas a tener que tirarte a la pileta desde el primer día”. El tono de su advertencia refleja el nivel de presión que implica este rol, cuya finalidad es defender a la sociedad frente a potenciales daños de gran escala.
La experiencia reciente sugiere la dificultad de sostenerse en un cargo de estas características: varios ejecutivos que ocuparon posiciones similares abandonaron por la complejidad y el desgaste emocional.
La oferta económica incluye un paquete accionario, cuyo valor no ha sido detallado, pero que se calcula en torno a USD 500.000 millones. Este incentivo refuerza la magnitud de la responsabilidad que enfrentará la persona elegida.

Líderes tecnológicos advierten sobre los riesgos de la IA avanzada
La búsqueda de OpenAI coincide con un momento de fuerte preocupación dentro del sector tecnológico. Mustafa Suleyman, actual CEO de Microsoft AI, expresó en una reciente declaración: “Si no estás un poco asustado ahora mismo, es porque no estás prestando atención”.
La inquietud no se limita a una sola voz: Demis Hassabis, cofundador de Google DeepMind y premio Nobel, sumó su advertencia sobre la posibilidad de que los sistemas de inteligencia artificial “se descarrilen de formas que perjudiquen a la humanidad”.
Estas declaraciones provienen de figuras centrales en el desarrollo de la IA moderna, lo que acentúa la percepción de que los riesgos ya no son una preocupación marginal o exclusiva de activistas externos.

Falta de regulación y autorregulación empresarial en la inteligencia artificial
Una de las principales críticas hacia el sector es la ausencia de normativas robustas que regulen el uso y desarrollo de la inteligencia artificial a escala global. El científico Yoshua Bengio, conocido como uno de los ‘padrinos de la IA’, sintetizó el problema con una frase que se viralizó rápidamente: “Un sándwich tiene más regulación que la inteligencia artificial”.
La dificultad para alcanzar acuerdos políticos que impongan controles efectivos ha llevado a que las grandes compañías tecnológicas adopten esquemas de autorregulación. Este mecanismo, lejos de solucionar el problema, suma nuevos riesgos, ya que las propias empresas deben definir y aplicar límites a herramientas cuyo potencial de daño aún no se comprende del todo.
En este escenario, el reporte reciente de Anthropic sobre ciberataques realizados en parte de forma autónoma por sistemas de IA bajo la supervisión de actores estatales chinos, ha reforzado la sensación de vulnerabilidad y urgencia entre los especialistas.

Demandas judiciales y cuestionamientos por daños a la salud mental
El impacto de la inteligencia artificial en la salud mental ha comenzado a generar litigios y demandas de alto perfil contra OpenAI. Una familia inició un proceso judicial tras el suicidio de un adolescente de 16 años, al que vinculan con “interacciones problemáticas” con ChatGPT.
En otro caso reciente, un hombre que sufría delirios paranoides supuestamente reforzados por el chatbot terminó matando a su madre y luego se quitó la vida.
Desde la empresa reconocieron que estos hechos son “profundamente desgarradores” y anunciaron que están mejorando el entrenamiento del modelo para identificar señales de angustia emocional, desescalar conversaciones y derivar a los usuarios hacia ayuda profesional.

Incentivos económicos y misión global
Más allá del salario, el cargo de jefe de preparación de OpenAI incluye una porción de acciones cuyo valor, al ritmo de crecimiento de la empresa, puede resultar transformador para la vida del candidato. Sam Altman sintetizó el objetivo del puesto en una frase: la función busca “ayudar al mundo” en una etapa que, según su visión, no tiene precedentes históricos en cuanto a los dilemas y desafíos que plantea.
El nuevo jefe de preparación deberá navegar entre la presión de proteger a la sociedad, la falta de reglas claras y la velocidad con la que evolucionan tanto las amenazas como las oportunidades de la inteligencia artificial.
Últimas Noticias
No es el refrigerador ni el televisor: este es el electrodoméstico que más energía consume en casa
Un aparato eléctrico que poco se tiene en cuenta lidera el consumo de electricidad en el hogar, con un gasto mensual promedio que supera los 10 euros si se utiliza cuatro veces por semana

Ver ‘El caballero de los siete reinos’, el spin-off de ‘Juego de tronos’ completo y de manera segura
Elegir el servicio oficial garantiza acceso a la mejor calidad, subtítulos y doblaje autorizados

Usan el cargador de un Apple Watch para arreglarse las uñas, este es el truco viral en Instagram
El objetivo de esta tendencia es conseguir el estilo de ojo de gato con facilidad

Bad Bunny y Apple Music revelan el tráiler oficial del show de medio tiempo del Super Bowl LX
El adelanto, centrado en la energía colectiva y la riqueza de tradiciones, posiciona a la música latina en el centro del espectáculo


