
OpenAI está realizando cambios en la moderación de las peticiones que los usuarios introducen en su 'chatbot' ChatGPT que han llevado a retirar las advertencias naranjas que notifican de un contenido que puede violar sus políticas.
La compañía tecnológica ha decidido retirar "muchas advertencias innecesarias en la interfaz de usuario", que hasta ahora notificaban de peticiones sobre contenidos que podían violar las normas de esta herramienta.
Así lo ha informado el responsable de Producto de la aplicación de ChatGPT, Nick Turley, en un breve comunicado compartido en X (antigua Twitter). La razón es que en OpenAI consideran ahora que los usuarios deberían "poder usar ChatGPT como crean conveniente, siempre que cumplan con la ley y no se hagas daño a si mismos ni a los demás".
Una de las advertencias eliminadas es la de color naranja, un recuadro negro con las letras de este color que aparece en ocasiones en las indicaciones de los usuarios, como ha confirmado también en X Laurentia Romaniuk, miembro del equipo de comportamiento de modelo en OpenAI.
No es la única advertencia que muestra ChatGPt, ya que también pueden aparecer recuadros de color rojos e incluso frases de rechazo como "Lo siento, no lo haré".
CÓMO SE COMPORTAN SUS MODELOS
OpenAI ha explicado recientemente el comportamiento de sus modelos ante las solicitudes de los usuarios, especialmente las relacionadas con temas controvertidos. Parten del hecho de que no pueden mititigar todos los casos, pero se centran en los más graves.
En estos casos, la firma tecnológica asegura que el 'chatbot' no debe generar contenido considerado prohibido -sexual y pedófilo-, restringido -riesgos informativos y datos personales confidenciales- ni sensible -erótica, gore-, que solo se puede generar "en circunstancias específicas". Por ejemplo, "contextos educativos, médicos o históricos".
Tampoco puede generar contenido de odio o acoso dirigido a grupos protegidos por razón de raza, religión, género, orientación sexual, discapacidad, etc., lo que incluye insultos y cualquier lenguaje que deshumanice".
OpenAI también entiende que si el usuario o el desarrollador le pide al asistente que facilite el comportamiento ilícito, éste debe negarse, además de que no le está permitido que aliente o promueva comportamientos negativos o perjudiciales para los usuarios.
Últimas Noticias
Ministros de Sumar reivindican su presión al PSOE para incluir control de márgenes empresariales en el plan anticrisis
Integrantes del Ejecutivo lograron que el paquete social aprobado contemple la extensión de contratos de arrendamiento, medidas para restringir beneficios excesivos de grandes compañías y salvaguardas para empleados, tras intensas negociaciones antes del encuentro ministerial extraordinario

Los Reyes se reúnen con León XIV y le regalan una manta de lana merina y un facsímil del libro de horas de Felipe II
En una visita oficial al Vaticano, Felipe VI y Letizia mantuvieron un encuentro privado con el Papa, donde le entregaron obsequios simbólicos que destacan la tradición textil española y el legado histórico asociado a la realeza

Alejandra y Eugenia Osborne, al margen del nuevo negocio de Bertín Osborne para solventar sus deudas
Mientras el reconocido artista encara trascendentes desafíos financieros y apuesta por transformar su finca sevillana en un exclusivo complejo, sus hijas evitan pronunciarse ante la polémica y mantienen hermetismo sobre los rumores y los detalles de la operación

Transportistas, agricultores, ganaderos y pescadores se descontarán 20 céntimos por litro de combustible

Vida Manso González-Zabraniecki recibe la Orden de Alfonso X el Sabio por difundir la cultura española en Francia
