Washington – La empresa de inteligencia artificial (IA) estadounidense Anthropic anunció que ha activado un protocolo de seguridad para Claude Opus 4, uno de sus modelos de lenguaje más avanzados, de cara a evitar la posibilidad de que ayude a adquirir o a desarrollar armamento.
En el blog corporativo de la empresa, se explica que se activaron los «estándares de despliegue y seguridad de nivel 3 para IA (ASL-3)», diseñados en parte para limitar el riesgo de que este nuevo modelo, presentado ayer, «sea utilizado indebidamente para el desarrollo o la adquisición de armas químicas, biológicas, radiológicas y nucleares».
Estas medidas no deberían llevar a Claude Opus 4 «a rechazar consultas, salvo sobre un conjunto muy limitado de temas», asegura la publicación.
La empresa, fundada por exempleados de Open AI, indicó que adoptó la medida por pura precaución, ya que aún no se ha establecido al 100 % si Claude Opus 4 ha traspasado ya un umbral que requeriría de estos protocolos de seguridad.
La compañía, que cuenta con respaldo financiero de Amazon o Google, indicó que Claude Sonnet 4, el otro modelo presentado ayer y que es una actualización de su modelo anterior Claude Sonnet 3.7, no requiere de estos protocolos de seguridad.
Claude Sonnet 4 y Claude Opus 4 son los últimos desarrollos de Anthropic y están diseñados para resolver tareas complejas y responder con mayor precisión a las instrucciones que les da el usuario. EFE