Puede que hayan pasado tres años desde que el lanzamiento de ChatGPT desencadenó una nueva carrera tecnológica, pero ahora todas las miradas están puestas en la IA agéntica. Sus impulsores afirman que superará a la IA generativa (GenAI) al trabajar de forma independiente para completar las tareas de sus responsables humanos. Casi dos tercios (62 %) de las organizaciones ya están experimentando con agentes de IA, y las empresas más grandes están escalando más allá de la fase piloto, según... McKinsey.
Pero la autonomía conlleva riesgos. El mes pasado, Antrópico revelado Lo que se afirmaba era la primera "campaña de ciberespionaje orquestada por IA", que utilizó su chatbot Claude para atacar a decenas de organizaciones. Es una amenaza de la que también advierte la comunidad de analistas.
El Informe de Forrester predicciones clave de ciberseguridad Para 2026, la implementación de una IA con agentes provocará una brecha de seguridad pública, lo que resultará en el despido de empleados. La pregunta es si las organizaciones cuentan con las herramientas, los marcos y los conocimientos necesarios para gestionar estos riesgos, aprovechando al mismo tiempo los enormes beneficios empresariales de la tecnología.
Cómo funciona la IA de Agentic
Mientras que GenAI simplemente resume y crea contenido según las indicaciones del usuario, los sistemas de IA con agentes están diseñados para funcionar sin supervisión humana constante para completar tareas. Para ello, recopilan información de bases de datos, sensores, usuarios y API. Luego, procesan esos datos para extraer información y contexto. A continuación, la IA se fija objetivos basándose en metas predefinidas o en la información del usuario, determina cómo alcanzarlos y utiliza el razonamiento para elegir la mejor de entre varias acciones posibles.
A continuación, se ejecuta esa acción, generalmente mediante la interacción con sistemas y datos de terceros. A continuación, se evalúa el resultado y se perfecciona y aprende continuamente. La capacidad de la IA para completar tareas complejas de varias etapas de esta manera, con la posibilidad de ajustarse dinámicamente a medida que surge nueva información, es lo que la hace tan útil. Sus usos son prácticamente ilimitados. Esta tecnología podría impulsar todo tipo de procesos, desde flujos de trabajo de mantenimiento predictivo en entornos industriales hasta la gestión del recorrido del cliente en el comercio electrónico.
Si se implementa con prudencia, la IA agentica podría eliminar el error humano en las tareas manuales, liberando al personal para que se concentre en tareas de mayor valor y mejorando drásticamente la eficiencia operativa y la productividad. Estas eficiencias deberían permitir reducir los costos. Además, los agentes de IA podrían mejorar significativamente la experiencia del cliente en ciertos sectores.
Cómo podría ocurrir una violación
Sin embargo, debido a la menor supervisión de la IA, existe una mayor probabilidad de manipulación maliciosa o fuga accidental de datos, incluso antes de que los equipos de seguridad se percaten de que algo anda mal. Cuanto más importantes sean las decisiones que un agente puede tomar, mayor será el riesgo potencial. La inyección rápida es una preocupación importante. Al incrustar instrucciones maliciosas en algo que un agente procesará, como un documento, una página web o un comentario en línea, un agente de amenazas podría engañarlo para que filtre datos confidenciales.
Las fugas también pueden ocurrir accidentalmente si las barreras de seguridad no se implementan correctamente. Los agentes con privilegios excesivos y la proliferación de agentes aumentan la probabilidad de que algo salga mal.
Forrester advierte que las brechas de seguridad son posibles debido a una cascada de fallos. El analista sénior Paddy Harrington presenta a ISMS.online tres escenarios:
Demasiado acceso a los datos: En su afán por implementar la IA agentic, los departamentos y equipos podrían estar ignorando las directrices estándar de acceso de confianza cero. Y al tratarse de un "programa" y no de una persona, podrían asumir que, si solo le ordenan acceder a ciertos conjuntos de datos, su alcance debería estar limitado —explica—. Desafortunadamente, como se ha demostrado al no tener una segmentación adecuada de usuarios o dispositivos, cualquier agente que pueda acceder a los datos puede ser manipulado para acceder a ellos. Si a esto le sumamos el robo de un token de autenticación, la cantidad de datos que se pueden robar puede paralizar una empresa.
Mala higiene de autenticación: Los agentes necesitan autorización para acceder a los datos, lo que implica autenticación. Si los métodos de autenticación son demasiado simples (como tokens estáticos almacenados incorrectamente o una autorización demasiado amplia), estos agentes pueden ser manipulados por actores maliciosos —afirma Harrington—. Si un usuario crea un flujo de trabajo agéntico y no existen directrices, es posible que envíe datos a repositorios externos o acceda a información confidencial a través de estos flujos de trabajo autónomos. Si no existen medidas de seguridad, esto podría suponer la exposición de información de recursos humanos, financiera o incluso de autenticación.
Confiar en información de baja precisión: La precisión de muchos modelos probabilísticos puede variar entre el 60 % y el 10 %. Si se considera el contexto de alertas de TI o seguridad, con un modelo de lanzamiento acelerado, se podría tener una gran cantidad de falsos positivos o, peor aún, falsos negativos —argumenta Harrington—. Esto podría distraer a los equipos de los problemas reales o hacer que los pasen por alto por completo. En cuanto a la cascada, al crear un flujo de trabajo agente, donde los agentes trabajan juntos, una mentira en uno de ellos podría provocar que los agentes posteriores del flujo de trabajo se alimenten de esa mentira, generen la suya propia y esto continúe, de modo que el resultado o las acciones finales sean una pesadilla para la seguridad y la TI.
Barandillas y políticas
El consejo de Forrester es seguir sus barandillas de inteligencia artificial Agentic para la seguridad de la información (AEGIS). marcoSe basa en seis "dominios":
- Gobernanza, riesgo y cumplimiento (GRC)
- Gestión de identidades y accesos (IAM)
- Seguridad de datos y privacidad
- Seguridad de la aplicación
- Gestión de amenazas
- Arquitectura Zero Trust
El analista recomienda comenzar con GRC: establecer la gobernanza, crear sistemas de inventario de agentes y definir el uso aceptable. Insta a los equipos de seguridad a desarrollar la gestión de identidades y acceso (IAM) y la seguridad de datos, considerando a los agentes como una "nueva clase de identidad". A continuación, deberían implementarse mejoras en DevSecOps para asegurar el ciclo de vida del agente y detectar alucinaciones. Y, por último, la optimización mediante Zero Trust para aplicar la mínima agencia, supervisar el comportamiento no planificado y aislar a los agentes no autorizados.
Normas de buenas prácticas como la ISO 42001 también pueden ser útiles en este caso, ya que existe una importante convergencia con el enfoque AEGIS, afirma Harrington. Sea cual sea el método final, insta a las organizaciones a garantizar que la seguridad esté integrada en los proyectos de IA con agentes desde el principio.
“Todos avanzan demasiado rápido como para implementar las protecciones adecuadas. Los líderes empresariales consideran que la implementación de agentes de IA y flujos de trabajo agéticos genera enormes ahorros de costos y aumenta la eficiencia”, concluye.
La seguridad, el departamento del 'No', suele ser un impedimento para controlar la velocidad porque les decimos a las personas que se tomen el tiempo de seguir prácticas de operación seguras. Y esos obstáculos se perciben como un obstáculo. Pero casi siempre que [se ignora la seguridad], al final termina en sufrimiento.










