La amenaza del deepfake

Hay muchos videos famosos colgados en la red de personas conocidas a las que les han hecho un deepfake, ya sea el video del expresidente de EEUU Barack Obama, de los actores Tom Cruise o Morgan Freeman, esto nos muestra lo que la tecnología puede hacer y hasta que punto la IA se esta desarrollando en este campo, existen múltiples aplicaciones que realizan trabajos de este tipo incluso de forma gratuita.

Aquí dejo un enlace con algo de culturilla sobre el tema …

https://www.asilodigital.com/deepfakes-funciones-impacto-sociedad/

Aunque a estas alturas supongo que todo el mundo ya sabe que es un deepfake, por si acaso voy a explicarlo brevemente, si lo cogemos al pie de la letra, traducción literal es una falsificación profunda, lo cual suena un poco mal, pero no va muy descaminado, se trata de utilizar técnicas de IA (deep learning) para generar voz, imágenes o video falsos, la tecnología en si no es mala, no vayamos a demonizar a la IA como esta sucediendo muchas veces, sino el uso que se hace de la misma puede ser muy beneficioso o usarse con fines maliciosos.

Esta tecnología se ha usado ya muchas veces en el cine o incluso en campañas de marketing (anuncios) y demás sin mayor problema, pero siempre existe el uso y el abuso y supone una amenaza a tener en cuenta cuando se usa con el objetivo de difundir noticias falsas (fakenews) o se utiliza para estafar realizando una suplantación de identidad o varias como el caso que voy a comentar, para difamar a alguien, etc. etc. Se nos pueden ocurrir y ya han sucedido muchos casos de mal uso de esta tecnología.

Este es el caso que me ha llevado hoy a escribir estas líneas y que se esta difundiendo la noticia por diferentes medios, la IA ya se ha usado en clonación de voz para practicas de vishing y también para usar en imágenes y videos falsos por supuesto, seguramente hay más casos aparte del que comentaré ahora, pero he decido comentar este por lo reciente y porque según parece además no ha sido una única suplantación la que se ha realizado con el deepfake.

La situación que ha generado una estafa se ha producido utilizando una video llamada para hacer que un empleado de una multinacional de Hong Kong realizase una transferencia de algo más de 25 millones de dólares a unos estafadores.

Resumiendo, este empleado estuvo en una video conferencia con el CFO (Chief Financer Officer) o lo que es lo mismo el Financiero de la empresa, en la cual ordenaba (técnica de ingeniería social, usar la autoridad) realizar una operación que requería realizar varias transferencias hasta alcanzar ese importe. Según la información aparecida en diversas fuentes, todos los que estaban en la video conferencia excepto el empleado que ha caído en la estafa eran deepfakes.

Esto ha sido denunciado a las autoridades una vez descubierta la estafa, pero de momento se desconoce la autoría y por tanto sigue en investigación, según la información disponible en dicha conferencia, los estafadores le dieron ordenes a dicho empleado sin más interacción con él, salvo al inicio que le pidieron que se presentara, según la información recogida por las autoridades la reunión terminó de forma abrupta.

Ahora dependerá de muchos factores que puedan llegar a localizar a los estafadores, en función de las huellas que hayan dejado, así como su ubicación física, porque ya sabemos que este tipo de delitos suelen trascender fronteras y cuando eso sucede las investigaciones se ven dificultades por la falta de compartición de datos y colaboración de ciertos países.

¿Cómo nos protegemos?

Los deepfakes es verdad que cada vez son más buenos, a medida que la tecnología va mejorando y cada vez son más difíciles de detectar, pero aún es posible si la calidad de la imagen es lo suficientemente buena y nos fijamos en expresiones de la cara y/o en los ojos (se dice que son el espejo del alma), en este caso pueden ser un relejo de un deepfake.

La calidad de la imagen que hemos mencionado en el punto anterior, si bien es verdad que puede darse el caso de una mala conectividad y por tanto una baja calidad de la imagen, si esto no es lo habitual también puede ser un indicativo de que algo no anda bien, porque como comentaba en el punto anterior la baja calidad de imagen hace más fácil poder colar el deepfake.

El hecho y quizá en esta empresa sea algo habitual, pero normalmente y aunque sea una reunión con personal de alto nivel suele haber algún tipo de despedida, si la reunión se cerró de forma abrupta, también es un punto que nos puede hacer sospechar.

Valga decir, retrocediendo a los buenos usos de la tecnología IA, que también se disponen y se desarrollan múltiples herramientas para poder detectar estos deepfakes, al final es una pugna por quien usa mejor la tecnología si los buenos o los malos.

Y por último, si estamos hablando a priori de transferir fondos, pero además en este caso cantidades considerables, aunque puede no estar bien visto en algunos casos, pero hay que hacer doble verificación, tenemos que contactar a la persona o personas que lo hayan solicitado y realizar las comprobaciones oportunas, sabiendo que existen este tipo de estafas y que cada vez son más comunes (por convincente que pueda parecer, dado que estas viendo y escuchando a una persona que normalmente conoces y que se ve y suena como dicha persona), pero es mejor sospechar y pedir perdón si es necesario que tener que lamentarlo por ser víctima de una estafa.