Washington, 23 may (EFE).- La empresa de inteligencia artificial (IA) estadounidense Anthropic ha anunciado que ha activado un protocolo de seguridad para Claude Opus 4, uno de sus modelos de lenguaje más avanzados, de cara a evitar la posibilidad de que ayude a adquirir o a desarrollar armamento.
En el blog corporativo de la empresa, se explica que se han activado los "estándares de despliegue y seguridad de nivel 3 para IA (ASL-3)", diseñados en parte para limitar el riesgo de que este nuevo modelo, presentado ayer, "sea utilizado indebidamente para el desarrollo o la adquisición de armas químicas, biológicas, radiológicas y nucleares".
PUBLICIDAD
Estas medidas no deberían llevar a Claude Opus 4 "a rechazar consultas, salvo sobre un conjunto muy limitado de temas", asegura la publicación.
La empresa fundada por exempleados de Open AI ha indicado en todo caso que ha adoptado la medida por pura precaución, ya que aún no se ha establecido al 100 % si Claude Opus 4 ha traspasado ya un umbral que requeriría de estos protocolos de seguridad.
PUBLICIDAD
La compañía, que cuenta con respaldo financiero de Amazon o Google, ha indicado que Claude Sonnet 4, el otro modelo presentado ayer y que es una actualización de su modelo anterior Claude Sonnet 3.7, no requiere de estos protocolos de seguridad.
Claude Sonnet 4 y Claude Opus 4 son los últimos desarrollos de Anthropic y están diseñados para resolver tareas complejas y responder con mayor precisión a las instrucciones que les da el usuario. EFE
PUBLICIDAD
Últimas Noticias
Heridos tres civiles por el impacto en el norte de Israel de un dron lanzado desde Líbano

Aumentan a cinco los muertos y 40 los heridos en un ataque de Rusia contra la capital de Ucrania

Von der Leyen habla con Merz sobre competitividad europea, Oriente Medio y Ucrania
Zara supera a Nike y se convierte en la marca de moda más valiosa del mundo
