Un incidente reciente ha suscitado inquietud sobre el manejo de datos por parte de las herramientas GenAI. ¿Es hora de garantizar que sus datos no terminen en sus LLM? Dan Raywood analiza las opciones.
Una persona sabia dijo una vez que lo que publicas en internet se queda en internet. Se refería específicamente a las redes sociales, en particular a Facebook.
En esta década, el desafío consiste menos en revelar contenido en las redes sociales y más en lo que se ha introducido en la IA generativa y los modelos de lenguaje grande (LLM), que luego retienen, procesan y guardan esos datos para brindar mejores detalles en las solicitudes y los resultados de búsqueda.
Sin embargo, cualquier confianza en la seguridad de GenAI se vio sacudida en el verano cuando miles de las transcripciones del chat de Grok Se expusieron, lo que pone de relieve la rapidez con la que las conversaciones privadas de IA pueden hacerse públicas. Para las personas, esto puede resultar embarazoso. Para las empresas, los riesgos son mucho mayores, ya que exponen datos de clientes, propiedad intelectual o estrategias legales, con consecuencias que van desde daños a la reputación hasta multas regulatorias.
De chatbot a motor de búsqueda
Según informes de los mediosCada vez que se compartía un chat con el bot de Grok, se generaba una URL única que estaba disponible para los motores de búsqueda. La mayoría de los usuarios desconocían que estos enlaces se indexaban automáticamente, lo que significaba que cualquiera podía encontrarlos en línea.
Damian Chung, responsable de seguridad de la información empresarial de Netskope, le dice a IO que cree que, en este caso, solo se expuso el historial de chat, pero esto fue "bastante preocupante porque uno no piensa que cuando comparte esas interacciones de IA, podrían hacerse públicas".
Sin embargo, cree que este incidente al menos aumenta la conciencia sobre este tipo de riesgo, porque "no estamos mirando qué controles de seguridad hay alrededor de estos LLM, por lo que no se debe permitir ciegamente que entre cualquier información en ellos".
Para las empresas, la lección es clara: una vez que los datos salen de su entorno, pierden el control sobre ellos. Incluso cargas aparentemente inofensivas podrían resurgir de formas inesperadas.
La IA en la sombra y el riesgo de fugas
Grok, un producto de la empresa xAI de Elon Musk y comúnmente utilizado en X, es ahora uno de los cientos de servicios GenAI disponibles. Si se pueden filtrar conversaciones que el participante creía privadas, o al menos no reveladas, ¿qué podrían filtrar o vulnerar los demás?
Chung dice que estamos en las primeras etapas de la evolución de GenAI y que es bueno tener conciencia de los riesgos, pero también no asustar a los usuarios para que no lo utilicen.
Matt Beard, director de ciberseguridad e innovación en IA de AllPoints Fibre Networks, lo expresa sin rodeos: “Ya sean datos confidenciales o generales, las amenazas son ciertamente reales en ese sentido, desde la divulgación involuntaria de información de clientes hasta la filtración de documentos de estrategia interna; las consecuencias pueden variar desde daños a la reputación hasta multas regulatorias”.
Este riesgo se ve amplificado por la IA en la sombra. Los empleados que recurren a herramientas no autorizadas para aumentar su productividad pueden exponer información confidencial sin darse cuenta. Una vez indexada en línea, la información puede persistir mucho después de que se elimine la conversación original.
Políticas, no prohibiciones
Un enfoque consiste en bloquear por completo el acceso a las herramientas de IA, pero los responsables de seguridad advierten que esto es ineficaz. Como señala Chung: «Si se hace eso, el usuario encontrará otra forma de usarlo. Al bloquearlo, no necesariamente obtenemos el mismo nivel de seguridad que creemos».
En cambio, los expertos sugieren habilitar el uso de la IA bajo normas y medidas de seguridad claras. Beard afirma que el equilibrio reside en "crear un marco de controles técnicos y de comportamiento" para proteger los datos de la organización. Se trata de "mostrar al personal los beneficios de usar estas herramientas de forma segura y asegurarse de que cuenten con sistemas corporativos aceptables, ya que, de lo contrario, buscarán una solución alternativa".
Angelo Rysbrack, especialista en defensa digital de Pronidus Cybersecurity, coincide en que las recientes filtraciones ponen de relieve el principal riesgo para las empresas: cómo interactúan los empleados con estas herramientas de IA. Subir datos sensibles o incluso aparentemente inofensivos puede provocar rápidamente una exposición. Una vez que los datos salen de su entorno, pierde el control sobre ellos.
Soluciones prácticas
¿Qué pueden hacer entonces las organizaciones de forma realista para reducir el riesgo de exposición? Los SGSI consultados coincidieron en que la respuesta reside en construir defensas estructuradas y estratificadas.
Rysbrack señala que la mayoría de las organizaciones ya cuentan con políticas de uso aceptable o de TI, y estas son el punto de partida natural. «Si la base existe, hay que construir sobre ella» en lugar de empezar desde cero. Sin embargo, advierte que las políticas escritas no son suficientes, y es necesario que los empleados conozcan las normas desde el principio y se les recuerden periódicamente sus responsabilidades.
Beard enfatiza la necesidad de centrarse en facilitar un uso seguro bajo unas medidas de seguridad definidas: «Debemos adoptar la IA por la eficiencia que nos aporta, pero eso no significa una adopción ciega. Significa construir un marco de controles técnicos y de comportamiento para proteger nuestros datos y a nuestra gente».
Para Rysbrack, esos controles deben incluir salvaguardias prácticas: “Utilice filtrado de contenido, políticas de protección de aplicaciones y prevención de pérdida de datos para evitar que la información confidencial salga de la organización”. En algunos casos, podría ser adecuado “bloquear aplicaciones de riesgo, pero siempre que sea posible, ofrecer al personal alternativas seguras”.
Beard destaca la importancia de distinguir entre herramientas de IA autorizadas y no autorizadas y establecer expectativas claras para los empleados: "Sobre todo, las políticas de uso aceptables deben prohibir claramente que cualquier información que supere la clasificación 'Pública' se comparta con servicios no autorizados".
Este tipo de medidas se puede fortalecer aún más al vincularlas a marcos reconocidos como la norma ISO 27001 para la seguridad de la información y la ISO 42001 para la gobernanza de la IA. Esto ayuda a garantizar que las políticas, la supervisión y la gestión de riesgos no solo sean coherentes, sino también auditables y defendibles ante el escrutinio regulatorio.
En conjunto, esta combinación de marcos, salvaguardas técnicas y concientización continua del usuario crea una cultura en la que los empleados comprenden tanto los beneficios de las herramientas de IA como los límites del uso seguro.
Actúa ahora, no esperes
Beard tiene claro que ya no hay que dudar, y las organizaciones no deben esperar a que se produzca una vulneración, sino actuar ya. «Creen políticas claras y diferenciadas para el uso y desarrollo de la IA; asegúrense de que se supervisen con transparencia y capaciten a su personal. Sobre todo, consideren la IA como una capacidad que hay que aprovechar, no temer».
Chung coincide en que bloquear cada nueva aplicación de IA no es realista. Con cientos de ellas ya disponibles y nuevas apareciendo constantemente, sugiere que las organizaciones consideren intervenciones más sutiles, como un mensaje de orientación antes de acceder a un sitio web de GenAI, recordando a los empleados que piensen bien lo que comparten.
Rysbrack enfatiza que el reto reside en lograr un equilibrio en la protección de los datos sin frenar la innovación. Los mejores resultados se logran combinando normas claras, concienciación del usuario, formación y medidas de seguridad técnicas. «De esta forma, los empleados conocen los límites, cuentan con las herramientas adecuadas y la organización evita ser noticia».
La verdadera lección de Grok
La filtración de Grok no es el primer caso en que las conversaciones generadas por IA se pueden buscar en línea, y no será el último. Para las empresas, la verdadera lección es que la confianza en GenAI nunca debe darse por sentada.
Al implementar políticas, medidas de seguridad técnicas y concienciar al personal ahora, las organizaciones pueden aprovechar la productividad de la IA y, al mismo tiempo, proteger sus datos más valiosos. Esperar a la próxima vulneración no es una opción.










