Un boletín de noticias presentado por un avatar o mensajes en múltiples idiomas, así usan los terroristas la IA

Archivo - Un cartel sobre Inteligencia Artificial
Archivo - Un cartel sobre Inteligencia Artificial - Florencia Martin/Dpa - Archivo
Publicado: domingo, 24 noviembre 2024 12:05

Los expertos coinciden en que no hay que ser alarmistas pero tampoco ignorar la amenaza que supone esta tecnología

MADRID, 24 Nov. (EUROPA PRESS) -

La Inteligencia Artificial (IA) se está convirtiendo en una herramienta más de las empleadas por los terroristas, que han visto en el cada vez más fácil acceso a estas nuevas tecnologías y su potencial alcance una vía por la que hacer llegar su mensaje con vistas a captar nuevos adeptos y apoyos para su causa, según coinciden los expertos.

"Se están produciendo simultáneamente dos tendencias y el matrimonio de ambas podría tener un impacto significativo en el panorama de la amenaza terrorista tanto a corto como a medio plazo", alerta en un reciente artículo The Soufan Center, especializado en cuestiones de terrorismo y seguridad.

Por un lado, precisa, muchos de los servicios de IA, entre los que cita los Modelos Extensos de Lenguaje (LLM, por sus siglas en inglés) capaces de generar textos, no solo son gratuitos sino muy intuitivos en su uso, lo que hace que sean "extremadamente accesibles".

Al mismo tiempo, los grupos terroristas, entre los que se cita a Estado Islámico Jorasán (ISKP, la filial en Afganistán), "han intensificado su compromiso con la yihad mediática y han ampliado sus capacidades de propaganda, con la intención de propagar el terror y ganar partidarios y nuevos reclutas", previene el Soufan Center.

Un buen ejemplo de ello es el "boletín de noticias" en formato vídeo que Estado Islámico hizo público en abril pasado en el que el presentador, un avatar generado por IA, reivindicaba los ataques perpetrados por el grupo terrorista. Para este tipo de productos, de los que hay otros casos similares, se emplea IA capaz de transcribir texto a palabras y convertirlas luego en audio con una voz humana plausible.

Desde Tech Against Terrorism, una organización independiente que trabaja con el sector tecnológico para impedir el uso por parte de los terroristas de las nuevas tecnologías, alertan de que el uso de herramientas de transcripción, de no ser atajado, "facilitará significativamente los procesos" para transcribir y traducir los mensajes de los terroristas, permitiendo que su propaganda "llegue a una audiencia internacional más amplia, incluidos países y grupos demográficos a los que antes no podían llegar".

USO DE 'DEEPFAKES'

Pero no solo preocupa el hecho de que los terroristas puedan traducir su mensaje con mayor facilidad a múltiples idiomas o generar vídeos de mayor calidad o más impacto para hacer llegar su propaganda. El informe 'Algoritmos y terrorismo: el uso malicioso de la IA con fines terroristas', publicado por la Oficina de Lucha Antiterrorista de la ONU (UNOCT) y el Instituto de Investigación Interregional de la ONU sobre Crimen y Justicia (UNICRI) en 2021, ya llamaba la atención sobre otra práctica: los 'deepfakes'.

Esta práctica, que traducida sería algo así como 'ultrafalso', consiste en emplear técnicas de IA para manipular o generar tanto contenido visual como de audio que parezca tan real que resulte prácticamente imposible a los humanos, e incluso a las soluciones tecnológicas, discernir su autenticidad.

En el citado informe se apuntaba a la posibilidad de que los grupos terroristas empleen 'deepfakes' para "llevar a cabo campañas de desinformación en las redes sociales para manipular la opinión pública o lastrar la confianza de la ciudadanía en las instituciones del Estado".

Además, "dicha tecnología podría usarse como un instrumento efectivo de propaganda, radicalización o llamamiento a la acción", añade el citado documento, consultado por Europa Press, que pone como ejemplo el que pueda emplearse para poner en boca de determinadas figuras políticas declaraciones ofensivas para incrementar el malestar y ganar simpatizantes.

HERRAMIENTA DE RADICALIZACIÓN

Pero entre los expertos, y también entre los responsables de la lucha antiterrorista, preocupa también el uso que se puede hacer de la IA para radicalizar a determinados sujetos especialmente susceptibles.

En su análisis 'La radicalización (y contra radicalización) potencial de la IA' publicado por el Centro Internacional para la Lucha Antiterrorista (ICCT, con sede en Países Bajos), Priyank Mathur, Clara Broekaert y Colin P. Clarke ponen el ejemplo de Jaswant Sigh Chail, el joven de 19 años que, armado con un arco, irrumpió en el Castillo de Windsor para asesinar a Isabel II en diciembre de 2021.

Este tímido joven decidió pasar a la acción tras meses conversando con un contacto con el que aparentemente tenía una relación romántica que le apoyaba en su decisión y que resultó ser un 'chatbot', es decir, un software capaz de mantener una conversación, que él mismo había creado en una app llamada Replika.

Los autores del documento alertan de que este caso seguramente no será el último en el que la IA tiene un papel a la hora de pasar a la acción puesto que los estudios han demostrado que "los chatbots de IA pueden identificar con éxito nuestras inclinaciones y, a su vez, alimentar nuestros deseos". "Cuanto más un algoritmo nos dice lo que queremos oír, más volvemos a él" lo que puede terminar derivando en una "adicción", añaden.

El principal problema es que este tipo de relación entre jóvenes desencantados y solitarios y un 'chatbot' "es difícil de detectar o prohibir", admiten Mathur, Broekaert y Clarke, subrayando que la IA también puede ser una potente herramienta para combatir la radicalización.

Así, apuntan a que los LLM como ChatGPT y Claude pueden "afinarse para que imiten los estilos y tonos" que atraen a las personas susceptibles de consumir la propaganda terrorista con el fin de generar contenido personalizado para contrarrestar ese mensaje y evitar la radicalización.

PELIGRO DE LA REALIDAD VIRTUAL

Por otra parte, también llaman la atención sobre el rol que la Realidad Aumentada/Realidad Virtual (AR/VR) puede desempeñar a la hora de radicalizar a individuos, con el uso cada vez más extendido de las gafas de realidad virtual.

"Si la desinformación y la propaganda pueden parecer convincentes en formato vídeo, hay que imaginar cuánto más efectivo puede ser transmitido a través de experiencias inmersivas 3D que manipulan varios sentidos", resaltan, recordando que los terroristas han creado simulaciones de la masacre de Christchurch --en la que un joven mató a más de 50 personas en dos mezquitas en 2019-- en juegos como The Sims o Minecraft.

"Todo lo que hace falta para usar la mayoría de las aplicaciones de IA es un 'smartphone' y datos de Internet y ambas cosas están ya muy extendidas y son baratas a nivel mundial", admiten los autores, que subrayan que aunque el uso de la IA para acelerar la radicalización "solo tiene como resultado un puñado de complots o ataques más al año", para grupos como Estado Islámico "habrá valido la pena".

Con todo, estos tres expertos defienden que "es importante no ser alarmista" puesto que no está garantizado que los grupos terroristas vayan a recurrir de forma masiva a la IA, si bien "sería ingenuo no recordar la forma en la que los grupos terroristas" han sabido aprovecharse de las nuevas tecnologías en el pasado, como ha ocurrido con las redes sociales, las criptomonedas o los drones.

También desde Soufan Center defienden que "el alarmismo no nos preparará para el cambio en las tácticas, técnicas y procedimientos de los terroristas y extremistas" sino que lo que hay que hacer es "mitigar la 'falta de imaginación' con 'equipos rojos' serios que al menos nos preparen para afrontar lo que está por venir", utilizando el término empleado para hablar de los grupos independientes que ayudan a una organización a mejorarse a sí misma.

Contador

Leer más acerca de: