Un sistema de IA resiliente va más allá del rendimiento técnico. Refleja la cultura del equipo que hay detrás.
Y, a medida que la IA prolifera en las empresas y es utilizada por empleados y personas, los sistemas en los que confiamos se vuelven más difíciles de gobernar.
Los riesgos que introduce la IA no suelen ser dramáticos ni repentinos. Surgen gradualmente a través de una propiedad poco clara, actualizaciones desorganizadas, falta de capacitación y una toma de decisiones fragmentada.
La seguridad, en este contexto, tiene menos que ver con el código en sí y más con los hábitos y la coordinación de los equipos que se crean a su alrededor.
Replantear la seguridad de la IA
Cuando se habla de seguridad de la IA, la atención se centra directamente en la capa técnica, en conjuntos de datos limpios, algoritmos sólidos y modelos bien estructurados. Este es un instinto comprensible. Éstas son partes obvias, notables y son importantes.
Pero en la práctica, la mayoría de los riesgos surgen no de fallas en la lógica sino de brechas en la coordinación. Se construyen lentamente cuando las actualizaciones no se registran, cuando los modelos se mueven entre equipos sin contexto o cuando nadie está seguro de quién realizó el último cambio.
El proyecto de ley de resiliencia y seguridad cibernética del Reino Unido es un paso hacia la formalización de cómo se debe proteger la infraestructura digital. Esto introduce nuevos requisitos de garantía operativa, monitoreo continuo y respuesta a incidentes, especialmente para los proveedores de servicios que respaldan sistemas críticos.
Pero si bien el proyecto de ley agudiza las expectativas en torno a la infraestructura, aún tiene que captar cómo se desarrollará y pondrá en práctica la IA.
En sectores como la salud y las finanzas, los modelos ya están influyendo en las decisiones de alto nivel. Y a menudo ocurren en entornos en rápido movimiento donde los roles cambian, las herramientas evolucionan y la gobernanza no siempre sigue el ritmo.
Donde surge el riesgo
El desarrollo de la IA rara vez se queda dentro de un solo equipo. Los modelos se vuelven a entrenar, reutilizar y adaptar a las necesidades cambiantes. Esta flexibilidad es parte de su valor, pero también añade capas de complejidad.
Pequeños cambios pueden tener efectos masivos. Un equipo puede actualizar los datos de entrenamiento para reflejar nueva información. Otro puede ajustar el umbral para reducir los falsos positivos. Un tercero puede implementar un módulo sin ver cómo se configuró previamente.
Ninguna de estas decisiones es inherentemente incorrecta. Pero cuando los equipos no pueden rastrear una decisión hasta su origen, o nadie está seguro de quién aprobó el cambio, se pierde la capacidad de responder rápidamente.
Estas no son fallas de código o arquitectura, sino señales de que la forma en que los equipos construyen, implementan y entregan sistemas no funciona a escala. Cuando la cultura laboral retrocede, el riesgo se vuelve más difícil de ver y, por lo tanto, más difícil de contener.
Cambiar la cultura al nivel de control.
Si el riesgo se acumula en los hábitos cotidianos, la resistencia debe construirse en el mismo lugar. La cultura es más que un facilitador de buenas prácticas: es un mecanismo para mantener el control a escala del sistema.
Este principio se refleja en la normativa. La legislación de la UE sobre IA establece requisitos para sistemas de alto riesgo, incluida la evaluación de la conformidad y los códigos voluntarios, pero gran parte de la responsabilidad de incorporar la gobernanza en la vida cotidiana todavía recae en las organizaciones que los implementan.
En el Reino Unido, el Código de prácticas de ciberseguridad de IA del Departamento de Ciencia, Innovación y Tecnología sigue un enfoque similar, combinando principios de alto nivel con orientación práctica para ayudar a las empresas a convertir las políticas en normas de trabajo.
Los programas de investigación y reconocimiento apuntan en la misma dirección. Los estudios de desarrollo de la IA en el mundo real, como la iniciativa LASR del Reino Unido, muestran cómo las relaciones, los traspasos y las suposiciones entre equipos generan confianza en los modelos.
Iniciativas como los Premios Nacionales de IA reconocen a las organizaciones que ponen en práctica la gobernanza cultural y establecen estándares claros de excelencia.
Para las empresas, la tarea ahora es hacer de la claridad cultural una parte más coherente del diseño operativo. Cuanto más puedan confiar los equipos en normas compartidas, una propiedad clara y una toma de decisiones coherente, más flexibles se volverán sus sistemas de IA con el tiempo.
mirando hacia adelante
A medida que la IA se convierte en parte de la toma de decisiones cotidiana, el enfoque del liderazgo debe pasar del desempeño de los modelos individuales al entorno más amplio en el que operan estos sistemas.
Eso significa ir más allá de las soluciones a nivel de proyecto e invertir en el tejido conectivo entre equipos, rutinas, foros y hábitos que dan estructura al desarrollo de la IA como medida segura.
Desarrollar esta integridad lleva tiempo, pero comienza con claridad. Aclarar la propiedad, el cambio y el contexto.
Las organizaciones que prosperarán serán aquellas que traten la cultura no como una habilidad social, sino como un activo funcional, algo que se revisa, se dota de recursos y se mejora continuamente.
Esta estructura cultural es la que, en última instancia, dará forma a la seguridad. A través de hábitos integrados que hacen que sea más fácil ver, nivelar y actuar sobre el riesgo a medida que la IA se vuelve más importante para el funcionamiento de las empresas actuales.
Ofrecemos el mejor curso de ciberseguridad en línea.
Este artículo se produce como parte del canal de información de expertos de TechRadarPro, donde presentamos las mejores y más brillantes mentes de la industria tecnológica actual. Las opiniones expresadas aquí son las del autor y no necesariamente las de TechRadarPro o Future plc. Si estás interesado en contribuir, descubre más aquí:












