La tecnología deepfake impulsada por inteligencia artificial (IA) no es un fenómeno nuevo. El término "deepfake" se ha utilizado para describir los medios sintéticos desde 2017, y se han publicitado ampliamente muchos ejemplos de deepfakes. Los ejemplos virales incluyen un video generado por IA de Mark Zuckerberg hablando sobre el nefasto poder de Facebook, una cuenta de TikTok dedicada a compartir videos falsos del actor Keanu Reeves e incluso un video de la presidenta de la Cámara de Representantes de los Estados Unidos, Nancy Pelosi, manipulado para que parezca borracha.
La tecnología deepfake continúa avanzando a buen ritmo y es más complicado que nunca saber qué es real y qué no. Con las elecciones generales del Reino Unido en marcha, ¿los deepfakes han moldeado la forma en que los electores ven a los candidatos políticos, e incluso han impactado su forma de votar?
Deepfakes en las elecciones generales del Reino Unido
El mes pasado, se publicó en X (anteriormente Twitter) un vídeo manipulado del político del Partido Laborista Wes Streeting, que supuestamente lo muestra llamando a su colega laborista Diane Abbott una “mujer tonta”. La BBC informó que el video y muchos de los comentarios en respuesta a X provienen de una red de cuentas que crean y comparten clips de políticos y luego publican comentarios engañosos para reforzar la impresión de que son reales.
¿La red pretende socavar y desacreditar a los políticos objetivo, ya sea con fines políticos o simplemente por entretenimiento? El informe de la BBC encontró que las mismas cuentas publicaron clips falsos del laborista Luke Akehurst y de Nigel Farage del Reform UK, que abarcan todo el espectro político del Reino Unido. En un evento no relacionado, videos satíricos deepfake del Primer Ministro del Reino Unido, Rishi Sunak, también se volvieron virales recientemente después de que anunció propuestas del Servicio Nacional.
El impacto de la IA tampoco se limita a las redes sociales: existe incluso una Candidato independiente de AI llamado AI Steve, un avatar del empresario de la vida real Steven Endacott.
Un estudio de YouGov encontró que el 43% de los británicos obtiene sus noticias durante las elecciones generales a través de las redes sociales, sólo superado por la televisión (58%). En total, el 77% obtiene sus noticias online. Entonces, si bien muchas aplicaciones de la tecnología deepfake pueden ser inofensivas y entretenidas, las consecuencias de videos como el de Wes Streeting podrían ser políticamente perjudiciales. A medida que los británicos emitan sus votos, para algunos, los deepfakes probablemente afectarán sus decisiones de voto.
GenAI también continúa impactando a las empresas
Los actores de amenazas también continúan apuntando a las empresas y sus clientes. La semana pasada, el canal de noticias australiano 7News encontró su YouTube pirateado por actores de amenazas, que lo usaron para transmitir en vivo un video generado por IA de Elon Musk promocionando una estafa de criptomonedas. El Sydney Morning Herald informó que el deepfake animaba a los espectadores a escanear un código QR de la marca Tesla y depositar dinero en el esquema de criptomonedas para "duplicar sus criptoactivos".
El hackeo muestra que los actores de amenazas se están volviendo cada vez más inteligentes en su enfoque para comprometer a las empresas para acceder a datos críticos (y a sus clientes). El canal de YouTube de 7News tiene más de un millón de suscriptores, lo que permite a los estafadores detrás del ataque llegar a la importante audiencia de 7News: CryptoNews informó que la transmisión en vivo fue vista por alrededor de 60,000 espectadores, y otra transmisión simultánea fue vista por alrededor de 45,000 personas.
Los deepfakes también permiten a los actores de amenazas implementar ataques de estilo BEC (business email compromete) en organizaciones, utilizando audio, imágenes y videos generados por IA para hacerse pasar por miembros del personal de alto nivel. En abril, LastPass compartió que un El actor de amenazas se había hecho pasar por el director ejecutivo Karim Toubba. usando WhatsApp, enviando llamadas, mensajes de texto y mensajes de voz a un empleado con un audio deepfake. En este caso, el empleado denunció el incidente y LastPass mitigó la amenaza. Aún así, hay muchos incidentes recientes en los que este modo de ataque ha tenido éxito y ha provocado pérdidas financieras.
Los avances en la tecnología de inteligencia artificial están generando mayores amenazas cibernéticas
La IA se está convirtiendo en una tecnología cada vez más accesible para los actores de amenazas, lo que lleva a un aumento de los ataques a personas y empresas. Nuestro Informe sobre el estado de la seguridad de la información encuestó a más de 1,500 profesionales de seguridad de la información y descubrió que casi un tercio (30%) de las empresas han experimentado un ataque deepfake en los últimos 12 meses.
Sin embargo, la mayoría de los encuestados (76%) también estuvo de acuerdo en que la tecnología de inteligencia artificial y aprendizaje automático (ML) está mejorando la seguridad de la información, ofreciendo nuevas formas de automatizar, analizar y mejorar las medidas de seguridad. El 62% espera aumentar su gasto en aplicaciones de seguridad de IA y ML en los próximos 12 meses.
Dado que la tecnología impulsada por la IA ofrece a las empresas desafíos y oportunidades increíbles, ¿cómo podemos abordar y prevenir incidentes deepfake?
Reducir el riesgo de incidentes deepfake
Para las empresas, la formación y la concienciación de los empleados serán vitales para reducir el riesgo de incidentes deepfake. Estándares como ISO 27001, el estándar internacional de seguridad de la información, proporcionan un marco para construir, mantener y mejorar continuamente un sistema de gestión de seguridad de la información (SGSI). Esto incluye implementar una política de seguridad de la información, que guiará a sus empleados a la hora de informar un incidente sospechoso, como un ataque BEC, por correo electrónico o en forma de deepfake.
En las elecciones generales del Reino Unido, el público en general debe estar atento al considerar si los videos y fragmentos de audio publicados en las plataformas de redes sociales son reales o están manipulados. Varias pistas visuales y auditivas pueden ayudar a identificar un deepfake.
Las pistas visuales incluyen:
- Movimiento ocular antinatural (o falta de movimiento ocular)
- Expresiones faciales inconsistentes
- Movimientos corporales inconexos o espasmódicos.
- Dientes que no parecen reales o ausencia de contornos de dientes individuales
- Imágenes borrosas o desalineadas.
Las pistas auditivas incluyen:
- Ruidos que suenan robóticos
- Fallos de audio
- Audio inconsistente
- Pronunciaciones extrañas de palabras
- Errores de sincronización de labios con discrepancias entre las palabras pronunciadas y los movimientos de los labios.
Combatir la influencia de los medios sintéticos
Será difícil medir el impacto de los deepfakes generados por IA en las elecciones generales del Reino Unido. Dado que el 43% de los británicos obtienen sus noticias a través de las redes sociales, muchos electores probablemente habrán visto una forma de medios sintéticos relacionados con un partido político, lo sepan o no.
Sin embargo, los usuarios de X identifican periódicamente posibles deepfakes y alertan a otros usuarios a través de la función de notas de la comunidad. La propia plataforma X ahora tiene una política de medios manipulados que establece que "no se pueden compartir medios sintéticos, manipulados o fuera de contexto que puedan engañar o confundir a las personas y provocar daños". La cuenta que publicó originalmente el video manipulado de Wes Streeting ahora ha sido suspendida, pero su impacto aún está por verse.
Con el aumento de los incidentes deepfake, las empresas también deberían considerar cómo mejorar su postura de seguridad. Desarrollar un SGSI sólido alineado con la norma ISO 27001:2022 ayuda a las organizaciones a reforzar sus defensas contra las ciberamenazas, reducir el riesgo de ataques exitosos y garantizar que los empleados conozcan sus funciones y responsabilidades en materia de seguridad de la información.










