
En la versión más reciente de su política de uso, OpenAI ya no incluye la cláusula que restringía expresamente la utilización de sus tecnologías para propósitos bélicos o militares. Antes, las regulaciones de la compañía especificaban claramente una prohibición sobre el empleo de sus productos en el ámbito militar.
Asimismo, eliminó el ítem donde se mencionaba su uso en la “gestión u operación de infraestructuras críticas en energía, transporte y agua”.
En la anterior versión de sus políticas de uso decía:
“Uso no permitido de nuestros modelos. No permitimos el uso de nuestros modelos para lo siguiente: Actividades que tienen un alto riesgo de daño físico, incluyendo: - Desarrollo de armas - Militar y guerra - Gestión u operación de infraestructuras críticas en energía, transporte y agua. - Contenido que promueva, fomente o represente actos de autolesión, como suicidio, cortes y trastornos alimentarios”.

Mientras que, en las actuales políticasdel 10 de enero de 2024, en la página web de la empresa, dicen:
“No utilice nuestro servicio para hacerse daño a sí mismo o a otros; por ejemplo, no utilice nuestros servicios para promover el suicidio o la autolesión, desarrollar o utilizar armas, herir a otros o destruir propiedad, ni participar en actividades no autorizadas que violen la seguridad de cualquier servicio o sistema”.
El cambio en la política de uso de OpenAI fue detectado inicialmente por The Intercept, quienes establecieron contacto con la compañía para obtener más detalles.
Un representante de OpenAI, Niko Felix, respondió al medio citado por correo electrónico, aclarando que el objetivo de la empresa “era crear un conjunto de principios universales que fueran fáciles de recordar y aplicar, especialmente porque nuestras herramientas ahora son utilizadas globalmente por usuarios cotidianos que ahora también pueden construir GPT”.

Continuó explicando la intención de la empresa: “un principio como ‘No dañar a los demás’ es amplio pero fácil de entender y relevante en numerosos contextos”. Felix también remarcó, “además, citamos específicamente las armas y las lesiones a otros como ejemplos claros”.
Felix igualmente escribió en dicho correo que “cualquier uso de nuestra tecnología, incluso por parte del ejército, para desarrollar o usar armas, herir a otros o destruir propiedad, o participar en actividades no autorizadas que violen la seguridad de cualquier servicio o sistema’, no está permitido”.
Heidy Khlaaf, directora de ingeniería en la empresa de ciberseguridad Trail of Bits y especialista en aprendizaje automático y la seguridad de sistemas autónomos, expresó al medio su preocupación acerca de los potenciales riesgos y daños que podrían derivar del empleo de la tecnología y servicios de OpenAI en contextos militares.

Khlaaf hizo referencia a un artículo de 2022, en el cual colaboró con investigadores de OpenAI, donde se destaca específicamente el peligro de su uso en aplicaciones militares. Ella observó un cambio en la política de la compañía que, a su parecer, prioriza la legalidad sobre la seguridad.
Según la experta, “existe una clara diferencia entre las dos políticas, ya que la primera describe claramente que el desarrollo de armas y el ejército y la guerra no están permitidos, mientras que la segunda enfatiza la flexibilidad y el cumplimiento de la ley”.
Puso de manifiesto que, dado que el desarrollo de armamento y las actividades bélicas pueden ser legales, esto no disminuye las posibles consecuencias graves para la seguridad de la inteligencia artificial.

Resaltó las preocupaciones existentes sobre los prejuicios y errores de los modelos de lenguaje de gran escala y advirtió que su aplicación en contextos bélicos podría resultar en operaciones imprecisas y sesgadas con un incremento posible en el daño y el número de víctimas civiles.
Últimas Noticias
Meta pone fin a su apuesta por el metaverso tras haber invertido 80.000 millones de dólares
Meta retira Horizon Worlds de sus gafas de realidad virtual, marcando el fin de su apuesta por el metaverso

20 años del primer tweet: la historia detrás del mensaje de Jack Dorsey que se vendió como un NFT millonario
La publicación sigue siendo visible para todo el mundo, a pesar de haberse vendido como un NFT

Paso a paso para invertir en criptomonedas y cuál es su valor
Las criptomonedas han tenido alzas y bajas en las últimas horas

Las redes sociales y los adolescentes, un debate que se expande en el mundo: ¿prohibición total o uso limitado?
Mientras países como España avanzan con restricciones para menores de 16 años, especialistas advierten que prohibir no alcanza. Qué dicen los estudios, cuáles son los riesgos y qué estrategias proponen para acompañar a los jóvenes en el uso de las redes sociales

Invertir en longevidad: cuáles son las empresas AgeTech que cuidan el mañana
Desde robots sociales hasta avances en biotecnología, surgen nuevas formas de prevención y acompañamiento para quienes atraviesan la tercera edad

