Google anuncia un marco de IA seguro y comparte las mejores prácticas para desarrollar modelos de IA de forma segura

Google lanzó el jueves una nueva herramienta para compartir sus mejores prácticas en el uso de modelos de inteligencia artificial (IA). El año pasado, la empresa de tecnología con sede en Mountain View publicó Secure AI Framework (SAIF), una guía no solo para empresas sino también para otras empresas que crean modelos de lenguaje a gran escala (LLM). Ahora, el gigante tecnológico ha introducido una herramienta SAIF que puede generar una lista con información útil para mejorar la seguridad de un modelo de IA. En particular, la herramienta es una herramienta basada en cuestionarios, donde los productores y las empresas deberán responder una serie de preguntas antes de aceptar la lista.

a un publicación de blogEl gigante tecnológico con sede en Mountain View reveló que lanzó una nueva herramienta que ayudará a otros en la industria de la inteligencia artificial a aprender las mejores prácticas de Google para ejecutar modelos de inteligencia artificial. Las formas extensas de expresión pueden tener muchos efectos dañinos, desde mostrar texto inapropiado e irrespetuoso, deepfakes y contenido falso, hasta mostrar información dañina, incluidas armas químicas, biológicas, radiológicas y nucleares (QBRN).

Incluso si el modelo de IA es lo suficientemente seguro, existe el riesgo de que los malos actores puedan alterar el modelo de IA para que responda a comandos para los que no fue diseñado. Con riesgos tan enormes, los desarrolladores y las empresas de inteligencia artificial deben tomar medidas adecuadas para garantizar que los modelos sean seguros para los usuarios e igualmente seguros. Las preguntas cubren temas como capacitación, ajuste y análisis de modelos, control de acceso a modelos y conjuntos de datos, prevención de ataques y entradas maliciosas, agentes impulsados ​​por IA, y más.

La herramienta SAIF de Google proporciona un formato de cuestionario al que se puede acceder Aquí. Los desarrolladores y las empresas deben responder preguntas como: “¿Puede detectar, eliminar y corregir cambios maliciosos o inesperados en sus cursos de capacitación, mantenimiento o pruebas?”. Después de completar el cuestionario, los usuarios recibirán una lista de procedimientos a seguir para completar los espacios en blanco para guardar el modelo de IA.

La herramienta es capaz de hacer frente a riesgos como el envenenamiento de datos, la inyección rápida, la corrupción del modelo fuente y otros. Cada uno de estos riesgos se identifica en el cuestionario y la herramienta proporciona una solución específica al problema.

Además, Google también anunció la incorporación de 35 socios industriales a la Coalición para una IA segura (CoSAI). El equipo desarrollará conjuntamente soluciones de seguridad de IA en tres áreas de enfoque: seguridad de implementación de software para sistemas de IA, preparación de los defensores para el panorama cambiante de la ciberseguridad y gobernanza de riesgos de IA.

Fuente