Por Juan Pablo Carsi, líder del Comité de Ciberseguridad.
¿Qué pasaría si el modelo de IA que te ayuda a vender más mañana decide compartir tus secretos con la competencia?
La inteligencia artificial (IA) dejó de ser promesa para convertirse en músculo operativo. Escribe correos, genera campañas, analiza clientes, traduce documentos y hasta redacta reportes financieros. Es brillante, veloz y, en muchos casos, más precisa que nosotros.
Pero también es indiscreta. Cada vez más empresas descubren que sus copilotos y asistentes virtuales están alimentándose de datos sensibles sin supervisión. La IA nos hace más productivos, sí, pero también más vulnerables.
Y aquí surge la pregunta incómoda: ¿quién gobierna al genio que acabamos de liberar?
Según el Global Cybersecurity Outlook 2025 del Foro Económico Mundial, el 66% de los líderes empresariales espera que la IA tenga un impacto alto en su estrategia digital. Sin embargo, solo el 37% evalúa los riesgos de seguridad antes de implementarla.
En otras palabras, estamos conduciendo un auto de Fórmula 1 sin revisar los frenos.
El resultado: fugas de datos, decisiones automatizadas sin trazabilidad y modelos que aprenden —y comparten— información confidencial.
La IA es como un empleado brillante y productivo, pero sin filtro. Puede resolver en minutos lo que antes tomaba días, pero si no tiene reglas claras, terminará hablando de más en la cafetería digital. Y en ciberseguridad, un comentario fuera de lugar puede convertirse en una fuga de datos monumental.
Desde AMITI, te compartimos tres pasos para ponerle límites a tu “genio digital”:
-
1. Ponle reglas antes de que te reemplace
La IA generativa es increíble… hasta que decide usar tus secretos como ejemplos de entrenamiento.
- Acción: Implementa una política de uso responsable de IA. Define qué información puede procesarse, en qué plataformas y bajo qué controles de seguridad.
- Quick win: Desactiva el historial de conversación en los copilotos o chatbots que manejen datos sensibles. Un clic puede evitar una crisis.
-
2. Integra la IA al gobierno de ciberseguridad, no al revés
El error más común es dejar que el área de innovación “juegue” con IA y pedirle después al CISO que apague incendios.
- Acción: Crea un Comité de Gobernanza de IA con TI, seguridad, legal y negocio.
- Quick win: Incorpora la IA en tu mapa de riesgos corporativos. Lo que no se ve, no se controla.
-
3. Confía, pero valida
No todo output de IA es confiable. Y no toda IA que usas es segura.
-
Acción: Realiza auditorías periódicas sobre los modelos y datos utilizados, e implementa controles de Data Loss Prevention (DLP) específicos para entornos de IA.
- Quick win: Evalúa a tus proveedores bajo criterios de IA ética y segura. No todo modelo “as a service” cumple con estándares de privacidad.
-
Acción: Realiza auditorías periódicas sobre los modelos y datos utilizados, e implementa controles de Data Loss Prevention (DLP) específicos para entornos de IA.
En los próximos años, las empresas no competirán solo por eficiencia o innovación, sino por confianza.
La confianza digital será el KPI invisible que determine si un cliente comparte su información contigo o con alguien más; si un inversionista apuesta por tu marca o te descarta por riesgo reputacional.
Y esa confianza nace de un solo lugar: la ciberseguridad bien gobernada.
La inteligencia artificial puede ser tu empleado más brillante o tu peor vocero.
Depende de si le das un manual de conducta o lo dejas hablar sin supervisión.