Microsoft anunció el martes una nueva habilidad de inteligencia artificial (IA) que identificará y corregirá situaciones en las que el modelo de IA produzca información incorrecta. La característica, denominada “Explicación”, se está integrando en el sistema de detección basado en Azure AI Content Safety. Dado que esta característica sólo está disponible a través de Azure, es probable que esté dirigida a los clientes empresariales del gigante tecnológico. La empresa también está trabajando en otras formas de reducir la incidencia de las alucinaciones por IA. Es importante destacar que la sección también puede mostrar una explicación de por qué un fragmento de texto se ha resaltado como información incorrecta.
La sección “Reparaciones” de Microsoft está disponible
a un publicación de blogEl gigante tecnológico con sede en Redmond ha descrito una nueva característica que supuestamente combate las alucinaciones de la IA, un fenómeno en el que una IA responde a una pregunta con información falsa y no reconoce su mentira.
La característica está disponible a través de los servicios Azure de Microsoft. El sistema Azure AI Content Security tiene una herramienta llamada seguridad básica. Indica si la respuesta resultante se basa o no en la verdad. Si bien la herramienta en sí funciona de muchas maneras diferentes para detectar condiciones visuales, la función Corrección funciona de una manera única.
Para que la solución funcione, los usuarios deben conectarse a la base de documentación de Azure, que se utiliza a través de la descripción general de la documentación y la configuración de preguntas y respuestas basada en recuperación, aumento, generación (RAG). Una vez conectados, los usuarios pueden habilitar la función. Después de eso, cada vez que se presente una declaración infundada o incorrecta, la función activará una solicitud de corrección.
En términos simples, los documentos básicos pueden entenderse como las pautas que el sistema de IA debe seguir al generar la respuesta. Puede ser una fuente de información para una consulta o una base de datos más grande.
Luego, la sección comparará la declaración con el documento base y, si se encuentra que es información incorrecta, se limpiará. Sin embargo, si el contenido coincide con el documento original, la función puede reescribir la declaración para garantizar que no se malinterprete.
Además, los usuarios tendrán la opción de habilitar la lógica cuando creen una habilidad por primera vez. Habilitar esto hará que el componente de IA ingrese una explicación de por qué pensó que la información era incorrecta y necesitaba corrección.
Portavoz de la empresa ser dicho La Sección de Edición utiliza modelos de lenguaje pequeño (SLM) y modelos de lenguaje grande (LLM) para vincular los resultados a los documentos fuente. “Es importante señalar que el descubrimiento básico no resuelve la ‘precisión’, pero ayuda a correlacionar los resultados de la IA con los documentos básicos”, dijo el portavoz.