IA de sombra

Cómo domar la IA de las sombras

¿Recuerdan la TI en la sombra? Tiene una nueva y disruptiva hermana: la IA en la sombra. A medida que los empleados se familiarizan con las capacidades de ahorro de tiempo de los modelos de IA generativa, los utilizan en masa en el trabajo. El problema es que no siempre tienen permiso.

La IA en las sombras no es solo un problema teórico, según Informe de seguridad de la IA 2025 de Check Point ResearchYa está aquí. Los servicios de IA están activos en al menos la mitad de las redes empresariales cada mes, según reveló la investigación. Al mismo tiempo, otro informe Un estudio de Cyberhaven Labs realizado el año pasado reveló que el intercambio de datos con herramientas de IA se multiplicó casi por cinco en un solo año, entre marzo de 2023 y marzo de 2024. Esto sería aceptable si todo su uso estuviera autorizado. Sin embargo, tres cuartas partes del uso de ChatGPT en el lugar de trabajo se realiza a través de cuentas personales sin las restricciones de seguridad corporativas, según Cyberhaven.

Los empleados no siempre son discretos con lo que comparten con estas herramientas, y casi uno de cada cuatro admite haber compartido información laboral confidencial con ellos a espaldas de su jefe. Check Point Research descubrió que el 1.25 % de los avisos presentaban un alto riesgo de fuga de datos confidenciales, y otro 7.5 % contenía datos potencialmente confidenciales.

El tipo de información que llega a estos sistemas abarca desde información de soporte al cliente (16.3%) hasta código fuente, materiales de I+D y documentos financieros, afirmó Cyberhaven.

Incidentes reales ilustran lo que está en juego. En abril de 2023, Samsung se enfrentó a una gran vergüenza Cuando los ingenieros compartieron el código fuente de semiconductores y notas de reuniones exclusivas.

¿Están realmente en riesgo mis datos?

Se podría justificar que las empresas piensen que sus datos están protegidos si llegan a una sesión de IA, pero no siempre es así. Existen varios vectores de fuga. Por ejemplo, muchos servicios de IA utilizan explícitamente datos de entrada para el entrenamiento de modelos. Esto incluye la versión gratuita de ChatGPT de OpenAI y la versión gratuita de Microsoft Copilot, en la que se basa. Esto podría exponer fragmentos de los datos de su empresa a otros usuarios a través de las respuestas de la IA.

Los ataques de inyección de indicaciones pueden engañar a los sistemas de IA para que revelen conversaciones previas o datos de entrenamiento, lo que básicamente pone a la IA en su contra para extraer información que no debería compartir. Estos ataques se clasifican actualmente como el principal riesgo de seguridad para la IA según OWASP, debido a su potencial impacto. Permiten a los atacantes manipular los sistemas de IA mediante la creación de indicaciones cuidadosamente diseñadas que extraen datos de entrenamiento confidenciales o eluden las medidas de seguridad.

Las filtraciones de datos de los propios proveedores de IA generan riesgos de exposición. Cuando estas empresas son atacadas, sus mensajes confidenciales pasan a formar parte del conjunto de datos robados. OpenAI se vio obligada a advertir a los usuarios en 2023 tras un error en su base de datos Redis. expuesto Los chats de algunos usuarios con otros. Con OpenAI ahora bajo órdenes no eliminar las consultas de los usuarios Como parte de un caso judicial del New York Times, ahora conserva conversaciones privadas que podrían ser vulnerables a un ataque informático exitoso.

La procedencia y seguridad de estos modelos también son a veces cuestionables. Con más modelos chinos disponibles ahora y preocupaciones profundas En lo que respecta a la seguridad del modelo chino DeepSeek, la IA en la sombra es una amenaza clara y presente.

Monitorear la IA en la sombra es difícil

Es fácil que la IA en la sombra se escabulla, especialmente porque estos servicios se lanzan a una velocidad que supera la capacidad de evaluación de los departamentos de TI. Las capacidades de IA integradas en las aplicaciones aprobadas serán invisibles para los sistemas de detección convencionales, y bloquear sesiones basadas en navegador podría resultar complicado. Es posible que las listas de bloqueo no tengan en cuenta todos los servicios de IA y, en cualquier caso, algunos empleados podrían tener permiso para usarlos mientras que otros no. Además, hay que considerar las interacciones basadas en API y las comunicaciones cifradas.

Domando a la bestia de la IA

Dada la promesa de la IA de aumentar la productividad, prohibirla por completo parece contradictorio. En cambio, es más realista adoptar la IA con cautela mediante la creación de políticas de uso, especialmente considerando el entusiasmo de los empleados por usar estos servicios. Un estudio de Software AG realizado en octubre pasado... determinaron  que casi la mitad de todos los empleados continuarían utilizando herramientas de inteligencia artificial personales incluso si su empleador las prohibiera.

Herramientas como el Marco de Gestión de Riesgos de IA del NIST ofrecen a las organizaciones la oportunidad de aprovechar los beneficios de la IA y, al mismo tiempo, mitigar sus riesgos. El marco del NIST emplea un enfoque de "gobernar, mapear, medir y gestionar", incorporando medidas en cada uno de estos apartados para que las organizaciones adopten un enfoque estratégico para gestionar el uso de la IA entre sus empleados. El marco ISO 42001:2023 también sugiere cómo crear y mantener sistemas de gestión de IA de forma responsable dentro de las organizaciones.

Muchos de los principios utilizados para combatir la TI en la sombra tradicional son aplicables. Establecer tiendas internas de aplicaciones de IA con catálogos de herramientas aprobados puede ayudar a ofrecer a los usuarios más opciones, manteniendo al mismo tiempo límites razonables de uso. Esto también le proporciona mayor impulso al establecer políticas de uso aceptables para la IA, que indican a los empleados qué tipo de consultas pueden (y cuáles no). Los programas de capacitación para empleados ayudarán a consolidar estas políticas y, además, los harán más productivos al informarles sobre casos de uso inteligentes de la IA.

Para algunas organizaciones, la transición a sistemas privados de IA que utilizan grandes modelos de lenguaje alojados en sus propias instalaciones ayudará a minimizar el riesgo de las aplicaciones externas de IA. Sin embargo, para muchas, esto seguirá siendo un reto considerable, que implicará una gran experiencia y un presupuesto considerable.

Cada vez que una nueva tecnología se populariza, es inevitable que los empleados quieran experimentar. Lo vimos con los dispositivos móviles y luego con la nube. La IA no será la última. La clave está en adoptar una actitud receptiva y responsable hacia el uso de la tecnología y reincorporarla a la sociedad.