![]()
Anthropic revela las «instrucciones del sistema» que hacen funcionar a Claude
Anthropic, la empresa de inteligencia artificial, ha publicado las instrucciones del sistema que utiliza para guiar el comportamiento de sus modelos de lenguaje Claude. Esta decisión marca un hito en la transparencia de la industria de la IA, ya que los proveedores rara vez revelan este tipo de información.
¿Qué son las instrucciones del sistema?
Las instrucciones del sistema son las directrices iniciales que se dan a los modelos de IA generativa para enseñarles sus cualidades básicas y lo que deben y no deben hacer. Todos los proveedores de IA generativa, desde OpenAI hasta Anthropic, utilizan estas instrucciones para evitar que los modelos se comporten mal y para dirigir el tono general y el sentimiento de sus respuestas.
¿Por qué Anthropic ha publicado estas instrucciones?
Anthropic se ha presentado como un proveedor de IA más ético y transparente, y la publicación de estas instrucciones es un paso más en esa dirección. La empresa tiene previsto divulgar este tipo de información con regularidad a medida que actualice y perfeccione las instrucciones del sistema.
¿Qué revelan estas instrucciones?
Las últimas instrucciones, del 12 de julio, indican claramente lo que los modelos Claude no pueden hacer: «Claude no puede abrir URL, enlaces ni vídeos». El sistema de Claude 3.5 Opus dice al modelo que «responda siempre como si no viera ninguna cara» y que «evite identificar o nombrar a personas en las imágenes».
Pero las instrucciones también describen ciertos rasgos y características de la personalidad que Anthropic quiere que los modelos Claude ejemplifiquen.
¿Cómo se describen estos rasgos de personalidad?
En el caso de Opus, por ejemplo, Claude debe parecer «[muy] inteligente e intelectualmente curioso» y «disfrutar escuchando lo que piensan los humanos sobre un tema y entablar un debate sobre una amplia variedad de temas». También se instruye a Claude para que trate los temas controvertidos con imparcialidad y objetividad, proporcionando «pensamientos cuidadosos» e «información clara» – y nunca empezar las respuestas con las palabras «ciertamente» o «absolutamente».
¿Qué implicaciones tiene esta publicación?
La publicación de estas instrucciones del sistema es un paso importante hacia una mayor transparencia en la industria de la IA. Al revelar cómo se guían sus modelos, Anthropic está presionando a sus competidores para que hagan lo mismo. Esto podría conducir a un mayor escrutinio público de los modelos de IA y a un debate más amplio sobre cómo deben ser diseñados y utilizados.
Fuente: techcrunch.com
La entrada Anthropic revela las «instrucciones del sistema» que hacen funcionar a Claude se publicó primero en Red De Noticias.

