Microsoft presenta ‘Corrección’, una función de IA que puede detectar y corregir consultas de IA

Microsoft anunció el martes una nueva habilidad de inteligencia artificial (IA) que identificará y corregirá situaciones en las que el modelo de IA produzca información incorrecta. La función, denominada “Explicación”, se está integrando en el sistema de detección basado en Azure AI Content Safety. Dado que esta característica sólo está disponible a través de Azure, es probable que esté dirigida a los clientes empresariales del gigante tecnológico. La empresa también está trabajando en otras formas de reducir la incidencia de las alucinaciones por IA. Es importante destacar que la sección también puede mostrar una explicación de por qué un fragmento de texto se ha resaltado como información incorrecta.

La sección “Reparaciones” de Microsoft está disponible

a un publicación de blogEl gigante tecnológico con sede en Redmond ha descrito una nueva característica que supuestamente combate las alucinaciones de la IA, un fenómeno en el que una IA responde a una pregunta con información falsa y no reconoce su mentira.

La característica está disponible a través de los servicios Azure de Microsoft. El sistema Azure AI Content Security tiene una herramienta llamada detección de línea de base. Indica si la respuesta dada se basa en la verdad o no. Si bien la aplicación en sí funciona con varios métodos de visualización diferentes, la función Corrección funciona de una manera única.

Para que la solución funcione, los usuarios deben conectarse a la base de documentación de Azure, que se utiliza a través de la descripción general de la documentación y la configuración de preguntas y respuestas basada en recuperación, aumento, generación (RAG). Una vez conectados, los usuarios pueden habilitar la función. Posteriormente, siempre que se haga una declaración falsa o sin fundamento, la división iniciará una solicitud de corrección.

En términos simples, los documentos básicos pueden entenderse como las pautas que debe seguir el sistema de IA al generar la respuesta. Puede ser una fuente de información para una consulta o una base de datos más grande.

Luego, la sección comparará la declaración con el documento base y, si se encuentra que es información incorrecta, se limpiará. Sin embargo, si el contenido coincide con el documento base, la función puede reescribir la declaración para garantizar que no se malinterprete.

Además, los usuarios tendrán la opción de habilitar la lógica cuando creen una habilidad por primera vez. Habilitar esto hará que el componente de IA ingrese una explicación de por qué pensó que la información era incorrecta y necesitaba corrección.

Portavoz de la empresa ser dicho La Sección de Edición utiliza modelos de lenguaje pequeño (SLM) y modelos de lenguaje grande (LLM) para vincular los resultados a los documentos fuente. “Es importante señalar que el descubrimiento básico no resuelve la ‘precisión’, pero ayuda a correlacionar los resultados de la IA con los documentos básicos”, dijo el portavoz.

Fuente