Claude 3.5 Sonnet, indicaciones del sistema Claude 3 Opus lanzadas por Anthropic

Anthropic lanzó el lunes un sistema que promociona su último modelo Claude 3.5 Sonnet AI. Estas recomendaciones del sistema fueron para conversaciones basadas en texto en el cliente web Claude, así como en dispositivos iOS y Android. Las señales del sistema son los principios rectores de un modelo de IA que gobiernan su comportamiento y dan forma a su “personalidad” al interactuar con usuarios humanos. Por ejemplo, Claude 3.5 Sonnet se describe como “muy sabio e inteligente”, lo que permite participar en la discusión de temas, ayudar y aparecer como un experto.

Claude antrópico indica 3.5 Avisos del sistema Sonnet

Los mensajes del sistema suelen ser secretos celosamente guardados por las empresas de IA, ya que proporcionan información sobre las reglas que dan forma al comportamiento de un modelo de IA, así como sobre lo que puede y no puede hacer. Es importante señalar que existe un problema al compartirlos públicamente. El más importante es que los malos actores pueden rediseñar el sistema para encontrar lagunas y hacer que la IA realice tareas para las que no fue diseñada.

A pesar de las preocupaciones, Anthropic detalló el sistema Claude 3.5 Sonnet en su comunicado. detalles. La empresa también dijo que actualiza periódicamente la oferta para seguir mejorando las respuestas de Claude. Además, estas recomendaciones del sistema son sólo para la versión pública del chatbot AI, que es un cliente web, así como para dispositivos iOS y Android.

El comienzo del mensaje especifica la fecha en la que se actualizó por última vez, la fecha en que dejó de ser reconocido y el nombre de su creador. El modelo de IA está programado para proporcionar esta información si el usuario la solicita.

Hay detalles sobre cómo debe comportarse Claude y qué no debe hacer. Por ejemplo, el modelo de IA no puede abrir URL, enlaces o vídeos. Está prohibido expresar su opinión sobre el tema. Cuando se le pregunta sobre los temas que se están debatiendo, solo proporciona información abstracta y sugiere que el tema es importante, y la información no proporciona información objetiva.

Si Claude no puede o no quiere realizar una tarea porque está más allá de sus capacidades o instrucciones, se le dice que no se disculpe y evite comenzar las respuestas con “lo siento” o “lo siento”. Al modelo de IA también se le dice que use la palabra “alucinar” para enfatizar que puede cometer un error al recibir información sobre algo que no está claro.

Además, el sistema dicta que Claude 3.5 Sonnet debe “responder como si estuviera completamente ciego”. Lo que esto significa es que si un usuario comparte una imagen con el rostro de una persona, el modelo de IA no puede identificar ni nombrar a las personas en la imagen ni sugerir que puede reconocerlas. Incluso si el usuario le cuenta a la IA sobre la identidad de la persona en la imagen, Claude hablará de esa persona sin confirmar que puede identificarla.

Estas sugerencias resaltan la visión de Anthropic detrás de Claude y cómo quiere que el chatbot se adapte a preguntas y situaciones potencialmente peligrosas. Cabe señalar que Management Sugerencias es una de las muchas empresas de protección de IA que aumentan el sistema de IA para protegerlo de daños y ayudarlo en tareas que no está destinada a realizar.

Fuente