Inteligencia Artificial (IA) y 'deepfake' - PIXABAY
MADRID, 28 Jul. (Portaltic/EP) -
El FBI ha anunciado recientemente el aumento de perfiles 'deepfake' (vídeos manipulados por Inteligencia Artificial) detectados en los procesos de selección de algunas empresas. Según advierte la agencia federal en un comunicado publicado a finales de junio, los impostores usan vídeos, imágenes, grabaciones e identidades robadas, haciéndose pasar por otra persona para obtener un puesto de trabajo de TI en remoto.
Contratar a una persona que ha usado un 'deepfake' puede generar serios problemas cuando ese empleado falso obtiene acceso a información corporativa confidencial y datos de los clientes. De este modo, puede representar una amenaza para la seguridad de la empresa y es probable que la organización no tenga la oportunidad de llevar al estafador ante la justicia, tal y como advierten los expertos en ciberseguridad de la compañía Kaspersky.
Sin embargo, esa no es la única forma en que los estafadores usan 'deepfakes' para aprovecharse de un negocio. A medida que la tecnología evoluciona, pueden utilizar este nuevo método para engañar a las pruebas biométricas utilizadas por los bancos y centros de intercambios de criptomonedas a la hora de verificar las identidades de los usuarios con el objetivo de blanquear dinero. Según el informe 'Sensity', nueve de los diez principales proveedores de Know Your Customer (KYC) eran muy vulnerables a los ataques de 'deepfake'.
Esta tecnología también se utiliza para el 'phishing' dirigido o masivo. Los ciberdelincuentes pueden imitar a los ejecutivos de una empresa para ganarse la confianza de una persona y engañarla para facilitar datos confidenciales, dinero o acceso a la infraestructura de la organización. En una ocasión, los delincuentes lograron obtener 35 millones de dólares falsificando la voz del director de una empresa.
"Ser consciente del peligro es la mitad de la batalla. Es importante educar a los empleados e informarles sobre los nuevos métodos fraudulentos. Un 'deepfake' de alta calidad requiere de mucha experiencia y esfuerzo, pero las falsificaciones utilizadas para estafas o interacción síncrona durante una entrevista son generalmente de baja calidad", afirma Vladislav Tushkanov, lead data scientist en Kaspersky.
"Entre las señales para detectar un 'deepfake', debemos fijarnos en que hay movimientos de labios antinaturales, cabello mal renderizado, formas faciales que no coinciden, poco o ningún parpadeo, diferencias en el color de la piel o errores en la representación de la ropa. Sin embargo, un ciberdelincuente puede reducir intencionadamente la calidad del vídeo para ocultarlo", añade este experto.
Por ello, para minimizar la posibilidad de contratar a un empleado falso, recomienda "dividir las entrevistas de trabajo en varias etapas, que involucren no solo a los gerentes de recursos humanos, sino también a las personas que trabajarán con un nuevo empleado". "Esto aumentará las posibilidades de detectar algo fuera de lo habitual", apostilla.
La tecnología también es una buena aliada para combatir los 'deepfakes'. Una solución de ciberseguridad garantizará el soporte necesario si un 'deepfake' de alta calidad convence a un empleado de descargar archivos o programas maliciosos o de visitar enlaces sospechosos o sitios web de 'phishing'.
"Una solución antifraude que realice análisis del comportamiento del usuario y monitorice transacciones financieras puede ser una buena opción para las empresas que utilizan KYC, ya que brinda una capa adicional de protección", concluyen desde Kaspersky.