OpenAI y otros expertos alertan una extinción tras la inteligencia artificial, como si fuera una pandemia

El pronunciamiento compara los peligros de estos programas con guerras nucleares

Compartir
Compartir articulo
Expertos en inteligencia artificial piden que se preste mayor atención a la regulación de la inteligencia artificial y hacerla una prioridad. (REUTERS/Florence Lo)
Expertos en inteligencia artificial piden que se preste mayor atención a la regulación de la inteligencia artificial y hacerla una prioridad. (REUTERS/Florence Lo)

Un breve comunicado publicado por el Centro para la Seguridad de Inteligencia Artificial y que fue firmado por expertos y personalidades reconocidas en el campo de la tecnología, como el CEO de OpenAI, Sam Altman, ha destacado que la inteligencia artificial podría generar posibles eventos de “extinción” para la sociedad.

La declaración, que se reduce únicamente a un párrafo introductorio y una frase final, indica que aún cuando se están debatiendo formas para regular las inteligencias artificiales, se tiene que centrar la atención en mitigar los posibles peligros que pueda traer consigo la creación de versiones mucho más avanzadas de estos programas.

“Mitigar el riesgo de extinción por IA debería ser una prioridad global junto con otros riesgos para la sociedad como las pandemias y una guerra nuclear”, coinciden los expertos entre los que se encuentran Demis Hassabis, CEO de Google DeepMind; Kevin Scott, CTO de Microsoft, Jaan Tallinn, cofundador de Skype, entre otros científicos y personalidades reconocidas.

Aunque Altman indicó en entrevistas durante el año 2023, que la inteligencia artificial con capacidad para dominar al mundo como se presenta en las películas, sí aseguró que teme que pueda ser utilizada para generar contenido dirigido a desinformar a las personas.

El CEO de OpenAI, Sam Altman, consideró que la inteligencia artificial debe ser regulada. (AP Foto/Alastair Grant)
El CEO de OpenAI, Sam Altman, consideró que la inteligencia artificial debe ser regulada. (AP Foto/Alastair Grant)

Aún cuando Altman aseguró que estos programas se benefician del contacto con los humanos y permiten identificar y corregir errores pequeños antes de que se generen otros mayores, sí se mostró muy a favor de la regulación de este tipo de tecnología para proteger la seguridad de los usuarios en internet.

Sin embargo la postura del CEO de OpenAI sobre la regulación parece depender mucho de lo que considere como adecuado. Ya en medio del debate de una posible norma de control para los países miembros de la Unión Europea, Altman comentó que la propuesta inicial le parecía excesiva.

El representante de la compañía indicó que intentaría cumplir con los estándares del Parlamento Europeo en la medida de sus posibilidades pero en caso de no poder, tendría que cerrar sus operaciones en esa parte del mundo. Posteriormente indicó que OpenAI “no tiene planes de irse de Europa”.

Por el momento la Unión Europea, a través de la Comisión Europea, sigue debatiendo una propuesta para regular la inteligencia artificial basada en una pirámide de riesgos. La propuesta señala que las IA que deseen ingresar a este mercado deberían tener estándares de seguridad para ser admitidas. Si las que acceden presentan problemas de seguridad, deberán ser vetadas, solucionarlos y volver a ingresar.

Pirámide de riesgos de las inteligencias artificiales propuesta por la Comisión Europea para legislar sobre estos programas. (Comisión Europea)
Pirámide de riesgos de las inteligencias artificiales propuesta por la Comisión Europea para legislar sobre estos programas. (Comisión Europea)

Italia contra ChatGPT

A raíz del aumento de la popularidad de la inteligencia artificial generativa, como en el caso de ChatGPT y sus diferentes versiones como GPT-3.5 y GPT-4, las preocupaciones sobre la seguridad de los usuarios y su información personal aumentaron en diferentes países del mundo.

Uno de los primeros en hacerle frente a esta problemática fue Italia, que incluso llegó a prohibir el acceso a ChatGPT de forma temporal hasta que se resuelvan los inconvenientes de ciberseguridad de la plataforma.

El veto duró varios días entre el 31 de marzo y el 13 de abril del año 2023, apenas unos días antes de que se lanzara la función de borrar el historial de conversaciones de ChatGPT y se diera a los usuarios la opción de elegir si sus conversaciones podrían utilizarse para entrenar a la inteligencia artificial.