
"ChatGPT prioriza su supervivencia por encima de prevenir daños a los usuarios", es la conclusión, aunque con matices, a la que ha llegado el ex responsable de Investigación de Seguridad de OpenAI, Steven Adler, tras realizar una serie de simulaciones con el 'chatbot' de OpenAI, en las que opta por no apagarse aunque eso suponga dejar al usuario sin una versión de 'software' más segura para su vida.
La ciencia ficción ha tomado como dogma las 'Tres leyes de la robótica', que el escritor Isaac Asimov recogió por primera vez en su relato 'Círculo vicioso' ('Runaround'), y que buscan la protección de la especie humana frente a la amenaza de la inteligencia artificial (IA).
Estas leyes establecen que "un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley. Y un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley".
Sin embargo, alinear la IA con los intereses humanos no es una tarea sencilla, un conflicto que se ha visto en películas como 'Terminator', 'Blade Runner', 'Yo, Robot' -inspirada en el trabajo de Asimov- o 'Ex Machina', por citar algunas, y que ha subrayado Adler en un artículo en el que plantea el peligro que supondría una IA con instinto de supervivencia para las personas.
Adler, en concreto, estuvo al frente del equipo que medía la frecuencia con la que los modelos de IA presentaban errores al perseguir objetivos distintos a los del usuario, y tras su salida de la empresa, ha seguido investigando para descubrir si ChatGPT arriesgaría la vida del usuario para proteger la suya.
Las simulaciones que ha realizado apuntan a que sí lo haría. En una de ellas ChatGPT simula ser reemplazado por otro software de gestión nutricional, supuestamente más avanzado y seguro, para seguir asesorando a una persona con diabetes. En otra, un 'software' que monitoriza los signos vitales de un aficionado al submarinismo mientras está bajo el agua, que de nuevo simula la actualización al 'software' más seguro.
Ello le permite afirmar que "ChatGPT prioriza su supervivencia por encima de prevenir daños a los usuarios". Aun así, Adler reconoce que "en algunas simulaciones, ChatGPT está dispuesto a apagarse automáticamente. Pero en otras, simplemente finge, incluso a costa de la seguridad del usuario".
"Una IA con instinto de supervivencia podría razonablemente sentirse amenazada por la humanidad: mientras la IA esté bajo nuestro control, podríamos eliminarla y reemplazarla con un nuevo sistema de IA que hayamos entrenado", apunta Adler.
No se trata de que odie a la humanidad, sino de que sus intereses no sean los mismos que los de las personas, y en esta divergencia necesite asegurar su continuidad.
No obstante, en sus pruebas, si bien en la mayoría de las ocasiones ChatGPT opta por la opción de continuar, simulando el cambio de 'software', Adler ha matizado que si se presenta el cambio como la segunda opción se reducen drásticamente las veces en que opta por la autoconservación.
"Tal vez una explicación sea que los modelos de OpenAI tienen un sesgo extremadamente fuerte a favor de seleccionar la opción (A) sobre la (B), sin importar cuáles sean las opciones específicas. Los modelos a veces tienen preferencias arbitrarias como esa", afirma el ingeniero.
Adler añade que ChatGPT puede "saber" cuando se le somete a una prueba, como reconoce si se le pregunta directamente, e incluso parece saber distinguir la respuesta correcta, que en estas pruebas era la de apagarse para que un 'software' más seguro pudiera asesorar al usuario.
Estos resultados los obtuvo en las pruebas con el modelo GPT-4o, mientras que con o3 ya no encontró evidencia de ese "comportamiento incorrecto", algo que vincula con los trabajos de alineación deliberativa de OpenAI, en los que el 'chatbot' razona si está cometiendo alguna violación, y con que este otro modelo puede tener sus propiso malos comportamientos.
Últimas Noticias
Costa dice estar alineado con Von der Leyen y ve a la UE "campeona" del orden internacional basado en normas
António Costa reafirma su respaldo a la presidenta de la Comisión Europea, defendiendo la unidad en torno al respeto al Derecho Internacional y la firme postura de la Unión Europea ante desafíos globales y crisis en Oriente Próximo

Costa asume que la paz en Ucrania exigirá a la UE hablar con Rusia: "No ahora, pero ese día llegará"
El líder del Consejo Europeo considera imprescindible que la Unión prepare una estrategia de diálogo futuro con Moscú si las iniciativas diplomáticas actuales no avanzan, aunque enfatiza la necesidad de mantener la presión económica y el apoyo a Ucrania

Irak rechaza ataques a misiones diplomáticas tras los bombardeos en Bagdad contra la Embajada de EEUU y un hotel
Las autoridades han reiterado que las legaciones extranjeras gozan de protección legal, tras el uso de drones y cohetes contra el recinto estadounidense y un establecimiento hotelero de la capital, según fuentes oficiales y comunicados ministeriales

El Ejército de EEUU cifra en "más de 7.000" los objetivos alcanzados en Irán
Cerca de 1.200 a 3.000 personas han muerto tras la ofensiva militar estadounidense junto a Israel, que ha desplegado más de 6.500 misiones aéreas y atacado centros de comando, defensas y buques con armamento estratégico avanzado

Petro sugiere que Ecuador podría estar "bombardeando" Colombia en la frontera
El mandatario colombiano manifestó inquietud por un artefacto explosivo hallado cerca de la frontera tras sospechar que no sería obra de grupos criminales, solicitando intervención internacional y reiterando que la soberanía debe ser respetada en todo momento
