El Reino Unido lleva más de una década sin lograr buenos resultados económicos. Desde la crisis financiera de 2008-9, la productividad apenas ha aumentado, lo que ha aumentado la exposición del país a las crisis económicas, fomentado el descontento popular y llevando al deterioro de los servicios públicos. El nuevo gobierno cree que tiene una respuesta: la inteligencia artificial. Un nuevo e importante plan de acción para las oportunidades de la inteligencia artificial presentado en enero está diseñado para ofrecer una “década de renovación nacional” al “inyectar IA en las venas de esta nación emprendedora”.
Sin embargo, como han advertido los expertos, también presenta nuevas e importantes oportunidades para que los actores de amenazas roben, saboteen, extorsionen y alteren el funcionamiento de la organización. La clave será garantizar que las organizaciones que se sumen a la iniciativa para hacer realidad el plan diseñen su infraestructura y sus sistemas de inteligencia artificial teniendo en cuenta la seguridad desde el principio.
¿Qué hay en el plan?
El plan en síEl Gobierno afirma que adoptará la ley en su totalidad, pero no por ello deja de ser ambicioso. Hay ocho elementos clave:
Sentando las bases con infraestructura de IA
Esto incluye la construcción de un Recurso de Investigación de IA dedicado (AIRR) de computadoras avanzadas con capacidad para IA y el establecimiento de “Zonas de Crecimiento de IA” para acelerar la construcción de centros de datos del sector privado.
Desbloqueo de activos de datos
Desarrollar una Biblioteca Nacional de Datos (NDL, por sus siglas en inglés), que permitirá que los conjuntos de datos públicos estén disponibles de manera “segura y ética” para los investigadores e innovadores en IA. Estos planes también implicarán construir una infraestructura de recopilación de datos del sector público, financiar la creación de nuevos conjuntos de datos de alto valor e incentivar a la industria para que “cuide y desbloquee conjuntos de datos privados”.
Formación y habilidades
Evaluar la brecha de habilidades en IA, mejorar la diversidad en el grupo de talentos, apoyar la educación superior para aumentar el número de graduados en IA y atraer trabajadores calificados del extranjero.
Regulación, seguridad y garantía
Desarrollar el Instituto de Seguridad de la IA, hacer más competitivo el “régimen de minería de textos y datos del Reino Unido”, financiar “urgentemente” a los reguladores para que mejoren su experiencia en IA y garantizar que todos los departamentos patrocinadores prioricen la “innovación segura en IA”. El plan también cita iniciativas a favor de la innovación como los entornos de pruebas regulatorios y la creación de “herramientas de garantía de alta calidad” respaldadas por el gobierno para evaluar la seguridad de la IA.
Adopte un enfoque de “Escanear > Pilotar > Escalar”
Anticipar futuros desarrollos de IA, pruebas piloto y creación de prototipos consistentes y rápidos, y centrarse en la ampliación a decenas o cientos de millones de interacciones ciudadanas en todo el Reino Unido. Esta etapa también hace referencia a la necesidad de interoperabilidad de la infraestructura, reutilización del código y código abierto.
Fortalecimiento del sector público y privado
El gobierno planea usar su peso y su infraestructura digital recientemente construida para crear nuevas oportunidades para innovadores, crear un centro de conocimiento de IA e impulsar el interés del sector privado en el enfoque Escanear > Pilotar > Escalar para obtener ganancias rápidas.
Abordar las barreras de adopción por parte de los usuarios
Mejorar la adopción por parte del sector público y privado a través de campeones de IA específicos del sector y una nueva estrategia industrial.
IA avanzada
Crear una nueva unidad gubernamental con el poder de asociarse con el sector privado para maximizar la participación del Reino Unido en la IA de frontera.
¿Más que palabras?
Como es habitual en los anuncios gubernamentales importantes, aún quedan muchos detalles por resolver. Por eso, si bien la “seguridad” se menciona 14 veces en el plan, solo se hace en términos muy vagos, como que el gobierno “está comprometido a construir una infraestructura de inteligencia artificial de vanguardia, segura y sostenible” o que “liberará de manera responsable, segura y ética el valor de los activos de datos del sector público”.
Sin embargo, hay buenas razones para preocuparse por las implicaciones. Según el Foro Económico Mundial (WEF), Informe de Riesgos Globales 2025, Los líderes empresariales y los expertos clasificaron los “resultados adversos de las tecnologías de IA” como el sexto riesgo más grave durante la próxima década. Estos resultados podrían provenir de modelos mal diseñados o acciones maliciosas como el envenenamiento de datos o modelos. En este último escenario, los actores de amenazas obtienen acceso a los sistemas de IA para corromper los datos de entrenamiento o manipular los parámetros del modelo para sabotear o causar resultados específicos no deseados.
Podrían usar el mismo acceso a la infraestructura de IA para robar datos confidenciales de capacitación corporativa y de clientes, o incluso un gran modelo de lenguaje (LLM) en sí mismo, si ha sido ajustado por una organización para un propósito específico y, por lo tanto, representa propiedad intelectual valiosa por derecho propio.
Lamentablemente, las investigaciones revelan que los componentes clave de los enfoques de IA de próxima generación, como la generación aumentada de recuperación (RAG) y la “IA agente” autónoma, están plagados de fallas de seguridad. Un informe afirma Se han encontrado múltiples vulnerabilidades en herramientas y plataformas de alojamiento de LLM como llama.cpp y Ollama, así como en bases de datos vectoriales como ChromaDB. También revela decenas de servidores expuestos públicamente e instancias asociadas con dichas herramientas, muchas de las cuales no requieren autenticación. Eso sin mencionar el riesgo que suponen las credenciales comprometidas.
“Un alto porcentaje de los ciberataques utilizan credenciales robadas, por lo que los atacantes inician sesión en lugar de piratear”, explica Andrew Rose, director de seguridad de SoSafe, a ISMS.online. “Muchas empresas crean chatbots de IA para ayudar a su personal, pero pocas han pensado en la posibilidad de que su chatbot se convierta en cómplice de un ataque al ayudar al atacante a recopilar datos confidenciales, identificar a personas clave y obtener información corporativa útil”.
Los expertos alertan
Otros expertos en seguridad también han dado la voz de alarma sobre los planes del gobierno. Michael Adjei, director de ingeniería de sistemas en Illumio, advierte sobre una “capa oculta” de tecnología de inteligencia artificial patentada y poco examinada que los actores de amenazas podrían atacar mediante los ataques de envenenamiento de datos explicados anteriormente.
“El desafío es que las capas ocultas de la IA operan a través de 'representaciones aprendidas', lo que resulta difícil de interpretar y monitorear para detectar vulnerabilidades por parte de los equipos de seguridad. Esto hace que sea más difícil detectar modelos de IA alterados, en particular en sistemas que funcionan de manera autónoma o en tiempo real”, explica a ISMS.online.
“La cadena de suministro de IA plantea más riesgos. Los datos de terceros, los entornos de entrenamiento, el software o el hardware comprometidos pueden poner en peligro sistemas de IA enteros. Por ejemplo, los atacantes podrían inyectar datos maliciosos en los conjuntos de datos de entrenamiento, lo que crearía sesgos o vulnerabilidades en los modelos de IA”.
El plan del gobierno hace referencia al software de código abierto, una preocupación particular en la cadena de suministro dada la Los desafíos de seguridad bien documentados de la industria.
Martin Riley, director de tecnología de Bridewell, tiene experiencia en el diseño y la operación de centros de datos. Advierte que “el mercado de los centros de datos no está bien regulado y que la ciberseguridad en torno a estas instalaciones es algo deficiente”. También plantea una señal de alerta sobre la NDL.
“El objetivo principal de la NDL será garantizar que el sector privado pueda innovar para apoyar a los sectores públicos, por lo que el rigor en torno a los datos, la anonimización y la protección de las personas crearán varios desafíos de ciberseguridad”, afirma Riley. “¿Cuáles serán los requisitos de ciberseguridad para quienes deseen acceder a la NDL y utilizar sus datos?”
Rose de SoSafe quiere ver un mayor enfoque en la gobernanza.
“Espero que el gobierno reitere que la IA debe cumplir con las regulaciones existentes, como las normas de privacidad de datos. Insistir en la calidad y el control de los datos de entrada sería una buena idea para garantizar un resultado de calidad sin sesgos, pero esto se convierte en un desafío cuando los conjuntos de datos se vuelven vastos y variados, y proceden de muchos lugares”, explica.
“La clave es insistir en que las empresas que adoptan la IA creen un comité de gobernanza y supervisión. Debería exigir un inventario de dónde se utiliza la IA y el alcance de sus responsabilidades, respaldado por evaluaciones de riesgos del daño potencial causado por resultados erróneos o fallas, y vías de recuperación para cualquier falla o infracción”.
ISO 42001 al rescate
Los reguladores desempeñarán un papel importante a la hora de garantizar que las ambiciones del gobierno se hagan realidad de forma segura y ética. El Instituto de Seguridad de la IA se convertirá en un organismo legal, se financiarán los departamentos patrocinadores para que “amplíen sus capacidades de IA” y en las orientaciones dirigidas a estos reguladores se hará hincapié en la “innovación segura en IA”.
Sin embargo, aunque aún queda por ver qué nuevas reglas se implementarán como resultado, ya existen estándares de mejores prácticas que pueden ayudar a los desarrolladores y usuarios de IA a navegar por cualquier marco regulatorio que se les presente. ISO 42001,, por ejemplo, está diseñado para impulsar el uso y la gestión responsables de los sistemas de gestión de IA.
“Proporciona pautas para el uso seguro de la IA, ayudando a los desarrolladores a implementar mecanismos para detectar comportamientos inusuales o resultados inesperados, reduciendo la susceptibilidad a la manipulación”, dice Adjei de Illumio.
Rose de SoSafe está de acuerdo.
“La ISO 42001 es una metodología eficaz para ayudar a las organizaciones a adoptar la IA de forma consciente. Impulsa un enfoque cuidadoso para evaluar y controlar la implementación de la IA, garantizando que exista suficiente conocimiento y supervisión de los riesgos asociados”, concluye.
“Al igual que la ISO 27001, no te brinda seguridad. Sin embargo, crea un camino para la evaluación y la mejora continuas, lo que aumenta la probabilidad de crear una solución resiliente”.
Sabremos mucho más sobre los planes del gobierno en primavera, aunque, como la economía del Reino Unido está en mala forma, todavía está por ver si el Tesoro bloqueará o diluirá muchas de estas iniciativas. Pase lo que pase, esperemos que la seguridad integrada y la gobernanza mejorada de la IA no sean negociables.










