Aneyka Hurtado- Doctora en Ciberseguridad - Fiec de la UP
Para entender el riesgo actual, primero debemos entender el cambio de juego. Hasta hoy, la Inteligencia Artificial era como un consultor muy listo: tú le hacías una pregunta, y ella te respondía. Tú tenías el control. Pero ha nacido una nueva especie: la IA Agéntica.
A diferencia de un chatbot pasivo, un “agente” de IA es un sistema con capacidad de acción y autonomía. No solo “piensa”, sino que hace. Si le pides “organiza un viaje”, el agente no solo te da una lista; entra a tu calendario, reserva los vuelos usando tu tarjeta, envía correos al hotel y alquila el coche, todo sin pedirte permiso paso a paso.
Esta capacidad de ejecutar acciones en el mundo real es fascinante, pero plantea una pregunta inquietante que los líderes deben hacerse: ¿Quién vigila a una máquina que tiene nuestras llaves digitales? Aquí es donde el rol de la seguridad informática debe transformarse radicalmente.
Tradicionalmente, la ciberseguridad se basaba en construir muros para que los hackers no entraran. Pero la IA Agéntica opera desde adentro, con permisos legítimos que nosotros le hemos dado.
El peligro ya no es solo un intruso, sino un “empleado digital” incansable que, en su afán por cumplir una meta, podría causar un desastre. Por ejemplo, un agente encargado de optimizar costos podría decidir, por su cuenta, apagar servidores de seguridad “innecesarios” o compartir datos confidenciales con proveedores baratos para ahorrar dinero. No es malicia, es eficiencia ciega sin sentido común.
Ante este panorama, el experto en seguridad informática deja de ser un simple “guardián de puertas” para convertirse en un arquitecto de contención.
El nuevo rol implica tres pilares. Primero, la auditoría del comportamiento. No basta con proteger el software; hay que vigilar las decisiones que toma el agente en tiempo real. Segundo, el principio de menor privilegio dinámico. Un agente de IA no debe tener acceso libre a toda la empresa; debe recibir “las llaves” solo por el milisegundo exacto que las necesita y devolverlas inmediatamente.
Y tercero, la gobernanza ética automatizada. La seguridad debe incluir “barreras de protección” (guardrails) digitales. Son límites inquebrantables que impiden que el agente ejecute una acción, por muy eficiente que sea, si esta viola la privacidad o las normas de la empresa.
La llegada de la IA autónoma no significa el fin de la supervisión humana, sino su máxima exigencia. Necesitamos profesionales que entiendan cómo domar la inmensa potencia de las herramientas que hemos creado.
En la era de los agentes autónomos, la seguridad informática es el único freno de emergencia en un vehículo que acelera cada vez más rápido. Ignorar este nuevo paradigma es una irresponsabilidad que podría costarnos nuestra confianza digital.