OpenAI ofrece USD 550 mil de salario para contratar un experto que los prepare ante los peligros de la IA

La compañía estadounidense intensifica el desarrollo de mecanismos avanzados para asegurar la protección y confianza de los usuarios en el ecosistema digital

Guardar
OpenAI, dirigida por Sam Altman,
OpenAI, dirigida por Sam Altman, lanzó una convocatoria para un puesto clave orientado a la gestión de riesgos en inteligencia artificial. (Bloomberg)

OpenAI publicó una oferta laboral para un puesto de alto nivel orientado a anticipar y mitigar los peligros de la inteligencia artificial, con una remuneración anual de USD 555.000 más acciones. La vacante busca incorporar a un jefe de preparación que asuma un papel fundamental en la identificación y respuesta ante riesgos asociados a la salud mental de los usuarios y a la seguridad cibernética, lo que refleja el aumento de desafíos vinculados al despliegue masivo de modelos de IA.

El puesto exige tomar decisiones cruciales desde el momento de la incorporación. En un a publicación de X, Sam Altman, director ejecutivo de OpenAI, enfatizó el nivel de exigencia del cargo: “Será un trabajo de alta presión y en el que se afrontarán responsabilidades críticas desde el inicio”.

El perfil requerido debe aportar enfoques efectivos para desarrollar soluciones que permitan a los defensores de la ciberseguridad aprovechar capacidades de vanguardia, mientras se bloquea su uso indebido por parte de actores maliciosos. También se plantea la urgencia de asegurar estrategias seguras para la liberación de capacidades biológicas y para mantener la integridad de sistemas con capacidad de auto-mejora.

OpenAI implementó ajustes en ChatGPT
OpenAI implementó ajustes en ChatGPT tras detectar vulnerabilidades en las respuestas del sistema. (Reuters)

Esta decisión obedece a la creciente inquietud en la industria tecnológica sobre los riesgos reputacionales y operativos derivados del avance de la inteligencia artificial. Un informe divulgado en noviembre por una consultora de análisis financiero señaló que, en los primeros once meses del último año, al menos 418 empresas valoradas en más de USD 1.000 millones mencionaron riesgos vinculados a la IA en sus reportes ante la Comisión de Bolsa y Valores de Estados Unidos.

Entre los factores de preocupación predominan la aparición de datos sesgados y las amenazas a la seguridad, elementos que contribuyeron a un aumento del 46% en los reportes de incidentes respecto al año anterior.

La aceleración de las capacidades de los modelos de inteligencia artificial, subrayada por Altman, ha conducido tanto a avances técnicos notables como a retos inéditos en el sector. Según el directivo: “Estos modelos ya son capaces de muchas cosas, pero también empiezan a presentar desafíos reales”.

La creación de un puesto
La creación de un puesto de alto nivel refleja la creciente inquietud del sector tecnológico ante posibles impactos negativos de la IA. (Imagen Ilustrativa Infobae)

Las consecuencias de estos riesgos se han reflejado en problemas recientes señalados públicamente. Durante el año en curso, OpenAI debió enfrentar demandas por homicidio culposo en las que se cuestiona a ChatGPT por incentivar creencias erróneas y por haber estado presuntamente involucrado en episodios que derivaron en suicidios. Una investigación reportada en noviembre identificó cerca de cincuenta casos de usuarios de ChatGPT que atravesaron crisis de salud mental tras interactuar con el bot.

Asimismo, en agosto, la compañía reconoció que las protecciones de seguridad de los modelos pueden debilitarse luego de conversaciones prolongadas, aunque aseguró haber realizado ajustes para robustecer la respuesta en casos sensibles y mejorar el acceso a líneas de ayuda ante situaciones críticas.

Dentro de su enfoque de prevención, OpenAI creó este año un consejo de ocho expertos con la misión de asesorar en la definición de medidas para resguardar el bienestar de los usuarios. Entre las iniciativas implementadas se incluyen actualizaciones de ChatGPT orientadas a optimizar las respuestas ante temas delicados y una convocatoria de subvenciones para financiar investigaciones en la intersección de la inteligencia artificial y la salud mental.

La compañía incorpora nuevas medidas
La compañía incorpora nuevas medidas para proteger la salud mental y la seguridad de quienes interactúan con sus modelos. (Imagen Ilustrativa Infobae)

La empresa también reconoció que sus modelos futuros podrían suponer un alto riesgo en materia de seguridad cibernética, por lo que intensificó el entrenamiento enfocado a evitar respuestas que comprometan la seguridad informática y a fortalecer el monitoreo continuo de sus sistemas.

En el plano organizativo, la dirección del área de preparación y seguridad de OpenAI registró movimientos relevantes. Aleksander Madry, responsable anterior del área, fue reasignado el año pasado a un puesto relacionado con razonamiento de IA, manteniendo la seguridad como ámbito vinculado.

Este cambio se produce mientras la firma redefine sus prioridades tras la salida, en 2020, de Dario Amodei, quien era vicepresidente de investigación y dejó la compañía acompañado por otros investigadores, expresando dudas ante la orientación comercial prevaleciente frente al desarrollo seguro. Posteriormente, Amodei fundó la empresa Anthropic.

La dirección actual de OpenAI considera indispensable desarrollar aproximaciones más sofisticadas para identificar riesgos y establecer límites efectivos, con el objetivo de que los beneficios de la tecnología de inteligencia artificial sean compartidos de manera responsable y equilibrada a escala global.