
OpenAI publicó una oferta laboral para un puesto de alto nivel orientado a anticipar y mitigar los peligros de la inteligencia artificial, con una remuneración anual de USD 555.000 más acciones. La vacante busca incorporar a un jefe de preparación que asuma un papel fundamental en la identificación y respuesta ante riesgos asociados a la salud mental de los usuarios y a la seguridad cibernética, lo que refleja el aumento de desafíos vinculados al despliegue masivo de modelos de IA.
El puesto exige tomar decisiones cruciales desde el momento de la incorporación. En un a publicación de X, Sam Altman, director ejecutivo de OpenAI, enfatizó el nivel de exigencia del cargo: “Será un trabajo de alta presión y en el que se afrontarán responsabilidades críticas desde el inicio”.
El perfil requerido debe aportar enfoques efectivos para desarrollar soluciones que permitan a los defensores de la ciberseguridad aprovechar capacidades de vanguardia, mientras se bloquea su uso indebido por parte de actores maliciosos. También se plantea la urgencia de asegurar estrategias seguras para la liberación de capacidades biológicas y para mantener la integridad de sistemas con capacidad de auto-mejora.
Esta decisión obedece a la creciente inquietud en la industria tecnológica sobre los riesgos reputacionales y operativos derivados del avance de la inteligencia artificial. Un informe divulgado en noviembre por una consultora de análisis financiero señaló que, en los primeros once meses del último año, al menos 418 empresas valoradas en más de USD 1.000 millones mencionaron riesgos vinculados a la IA en sus reportes ante la Comisión de Bolsa y Valores de Estados Unidos.
Entre los factores de preocupación predominan la aparición de datos sesgados y las amenazas a la seguridad, elementos que contribuyeron a un aumento del 46% en los reportes de incidentes respecto al año anterior.
La aceleración de las capacidades de los modelos de inteligencia artificial, subrayada por Altman, ha conducido tanto a avances técnicos notables como a retos inéditos en el sector. Según el directivo: “Estos modelos ya son capaces de muchas cosas, pero también empiezan a presentar desafíos reales”.

Las consecuencias de estos riesgos se han reflejado en problemas recientes señalados públicamente. Durante el año en curso, OpenAI debió enfrentar demandas por homicidio culposo en las que se cuestiona a ChatGPT por incentivar creencias erróneas y por haber estado presuntamente involucrado en episodios que derivaron en suicidios. Una investigación reportada en noviembre identificó cerca de cincuenta casos de usuarios de ChatGPT que atravesaron crisis de salud mental tras interactuar con el bot.
Asimismo, en agosto, la compañía reconoció que las protecciones de seguridad de los modelos pueden debilitarse luego de conversaciones prolongadas, aunque aseguró haber realizado ajustes para robustecer la respuesta en casos sensibles y mejorar el acceso a líneas de ayuda ante situaciones críticas.
Dentro de su enfoque de prevención, OpenAI creó este año un consejo de ocho expertos con la misión de asesorar en la definición de medidas para resguardar el bienestar de los usuarios. Entre las iniciativas implementadas se incluyen actualizaciones de ChatGPT orientadas a optimizar las respuestas ante temas delicados y una convocatoria de subvenciones para financiar investigaciones en la intersección de la inteligencia artificial y la salud mental.

La empresa también reconoció que sus modelos futuros podrían suponer un alto riesgo en materia de seguridad cibernética, por lo que intensificó el entrenamiento enfocado a evitar respuestas que comprometan la seguridad informática y a fortalecer el monitoreo continuo de sus sistemas.
En el plano organizativo, la dirección del área de preparación y seguridad de OpenAI registró movimientos relevantes. Aleksander Madry, responsable anterior del área, fue reasignado el año pasado a un puesto relacionado con razonamiento de IA, manteniendo la seguridad como ámbito vinculado.
Este cambio se produce mientras la firma redefine sus prioridades tras la salida, en 2020, de Dario Amodei, quien era vicepresidente de investigación y dejó la compañía acompañado por otros investigadores, expresando dudas ante la orientación comercial prevaleciente frente al desarrollo seguro. Posteriormente, Amodei fundó la empresa Anthropic.
La dirección actual de OpenAI considera indispensable desarrollar aproximaciones más sofisticadas para identificar riesgos y establecer límites efectivos, con el objetivo de que los beneficios de la tecnología de inteligencia artificial sean compartidos de manera responsable y equilibrada a escala global.
Últimas Noticias
Todos los rumores sobre el nuevo Apple TV que llegaría en 2026: Siri, IA con Apple Intelligence y más
Gracias al nuevo hardware, el Apple TV podría ejecutar videojuegos AAA de forma nativa, ampliando su rol más allá del streaming tradicional

Cómo WhatsApp puede ayudarte a ahorrar tiempo con esta función clave
La incorporación de filtros en la app permite clasificar las conversaciones de manera sencilla, agilizando la localización de mensajes importantes

Las 8 mejores aplicaciones de dictado con IA para agilizar tus tareas diarias
Las aplicaciones de dictado con inteligencia artificial experimentaron una evolución significativa durante el último año

Razones por las que tu móvil Android actualiza aplicaciones de forma continua
Uno de los principales motivos por los que las apps se renuevan regularmente es para optimizar su rendimiento

Radiador del siglo 19 es reutilizado como sistema de refrigeración para una PC gamer
La creatividad en la personalización rompe barreras al reutilizar elementos industriales clásicos para redefinir soluciones de enfriamiento en hardware de última generación



