OpenAI suspende por tiempo indefinido su versión de ChatGPT erótico

A OpenAI y sus inversores les inquieta que la IA, útil para crear imágenes creativas, también pueda generar contenido ilegal

Guardar
OpenAI habría pausado sin plazo la versión erótica de ChatGPT. REUTERS/Dado Ruvic/Illustration/File Photo
OpenAI habría pausado sin plazo la versión erótica de ChatGPT. REUTERS/Dado Ruvic/Illustration/File Photo

OpenAI habría suspendido indefinidamente su versión erótica de ChatGPT, según el diario británico Financial Times. El medio indica que en la industria se usa ese término para referirse a una cancelación, aunque con un término menos contundente.

La misma filtración señala que, por el momento, no habría una nueva fecha prevista para retomar ni lanzar la función de inteligencia artificial, que permanece excluida de los planes públicos y operativos de la empresa.

De acuerdo con esta versión, la posible razón radicaría en la inquietud de empleados e inversores de la compañía, quienes no consideran conveniente vincular uno de sus productos principales con temáticas de sexo, erotismo o generación de pornografía.

Según la filtración, no existe una fecha definida para reactivar o lanzar la función, que sigue fuera de los planes de la empresa. REUTERS/Dado Ruvic/Illustration/File Photo
Según la filtración, no existe una fecha definida para reactivar o lanzar la función, que sigue fuera de los planes de la empresa. REUTERS/Dado Ruvic/Illustration/File Photo

Si OpenAI eliminara las restricciones sobre contenido sexual, no podría asegurar que prácticas como la bestialidad, el terror sexual o acciones ilegales quedaran excluidas.

Para los inversores, la popularidad de herramientas como ChatGPT se percibe como positiva cuando la gente las usa para crear imágenes al estilo Studio Ghibli, pero resulta riesgoso si la inteligencia artificial puede producir pornografía que, en muchos países, sería ilegal.

Por lo tanto, la posibilidad de que la red se inunde de contenido problemático, junto con la presión de los inversores, habría llevado a OpenAI a pausar indefinidamente el desarrollo de su versión erótica de ChatGPT.

OpenAI no ha realizado comentarios referentes a la filtración del medio mencionado.

Microsoft marca límites a la IA: “Jamás construiremos un robot sexual”, afirma Mustafa Suleyman
Sin restricciones, OpenAI no podría impedir la aparición de contenidos como bestialidad, terror sexual o actividades ilegales. (Imagen Ilustrativa Infobae)

Qué otros motivos habría considerado OpenAI para suspender al ChatGPT erótico

Entre los posibles motivos que OpenAI habría considerado para suspender la versión erótica de ChatGPT, destaca la complejidad técnica asociada al aprendizaje de los modelos.

Los sistemas previamente entrenados para evitar contenido sexual explícito enfrentaron dificultades al adaptarse a nuevas directrices, lo que complicó tanto la generación de contenido erótico permitido como la exclusión efectiva de expresiones ilegales.

Adicionalmente, el sistema de control de edad de OpenAI presenta una precisión insuficiente, con una tasa de error cercana al 10%.

Pantalla de una laptop mostrando la interfaz de un chatbot impulsado por Inteligencia Artificial, con líneas de código destacadas. La imagen refleja el impacto de la IA en la evolución tecnológica, simbolizando los avances en programación, robótica y asistencia digital en el campo científico y tecnológico. (Imagen ilustrativa Infobae)
Uno de los motivos considerados para suspender la versión erótica fue la dificultad técnica en el aprendizaje de los modelos. (Imagen ilustrativa Infobae)

Esto significa que una proporción relevante de usuarios menores podría acceder al modo para adultos, contradiciendo el compromiso de la empresa de proteger a los menores de contenido considerado inapropiado

Cuál era el objetivo de OpenAI con un ChatGPT erótico

El objetivo de OpenAI con la versión erótica de ChatGPT era ofrecer un espacio sin restricciones destinado a adultos. Aunque el lanzamiento inicial estaba previsto para diciembre del año pasado, la compañía pospuso la implementación de esta función en dos ocasiones.

Estos retrasos se habrían dado porque la empresa decidió priorizar otras funciones, mientras crecían las dudas internas sobre la viabilidad y adecuación del modo para adultos.

La iniciativa de OpenAI, según Sam Altman, buscaba crear un entorno para adultos sin límites. REUTERS/Kylie Cooper
La iniciativa de OpenAI, según Sam Altman, buscaba crear un entorno para adultos sin límites. REUTERS/Kylie Cooper

Sam Altman predice que la IA traerá nuevas amenazas biológicas

El ritmo acelerado en el desarrollo de la inteligencia artificial genera inquietud en Sam Altman, director ejecutivo de OpenAI, quien alertó recientemente sobre nuevas amenazas biológicas, así como vulnerabilidades en la economía y la seguridad digital global.

Durante el anuncio de una inversión mínima de USD 1.000 millones por parte de la fundación sin fines de lucro vinculada a OpenAI, destinada a la investigación de curas para enfermedades el próximo año, Altman remarcó la necesidad de una respuesta coordinada frente a los riesgos emergentes.

Altman sostuvo que la inteligencia artificial puede transformar la medicina al impulsar avances científicos, como el desarrollo de tratamientos para enfermedades, pero advirtió que la tecnología también generará nuevas amenazas para la sociedad que deben ser gestionadas.

El avance acelerado de la IA preocupa a Sam Altman, CEO de OpenAI, por nuevas amenazas biológicas y riesgos en economía y seguridad digital. REUTERS/Kylie Cooper/File Photo
El avance acelerado de la IA preocupa a Sam Altman, CEO de OpenAI, por nuevas amenazas biológicas y riesgos en economía y seguridad digital. REUTERS/Kylie Cooper/File Photo

En un hilo publicado en X, el empresario afirmó que ninguna empresa puede afrontar estos desafíos de manera aislada y que se requerirá una respuesta conjunta ante riesgos como amenazas biológicas emergentes, cambios económicos abruptos y modelos de IA altamente capaces con efectos complejos para la sociedad.

Altman también advirtió que centralizar el control de la IA en una sola compañía o país podría tener consecuencias graves.

Por ello, propuso la creación de un organismo internacional similar al Organismo Internacional de Energía Atómica (OIEA), con capacidad para responder con rapidez a situaciones cambiantes y coordinar regulaciones a escala global.