Falsificaciones, perjuicios a la imagen o estafas aparecen como compañeros de viaje de los DeepFakes. Un fenómeno cada vez más perfecto y que pone en riesgo la veracidad de la red.
La tecnología nos envuelve sin remedio y algunas de sus herramientas pueden ser bastante peligrosas. Este es el caso del DeepFake. Su nombre proviene del acrónimo inglés formado por las palabras fake (falsificación) y Deep learning (aprendizaje profundo) y surge de la mano de la inteligencia artificial. Su recorrido no ha hecho más que empezar y puede ser fuente de manipulaciones y noticias falsas en los próximos años.
¿Qué es un DeepFake?
Nace en 2017, y se puede definir como una técnica de síntesis de la imagen humana basada en la inteligencia artificial. Es tan potente que es capaz de adaptar en formato vídeo el rostro de una persona en movimiento. Por simplificar la cuestión, en un vídeo cualquiera, con una suficiente base de imágenes de una persona externa, se puede simular, sin ningún género de dudas, la participación de esa persona en el vídeo. El realismo que se puede alcanzar es impactante.
Para conseguir estos resultados se utilizan redes neuronales. Esta red interpreta la fotografía, la convierte en una imagen abstracta imposible de interpretar y traduce esa imagen a otra fotografía. Es un proceso que se repite cientos de miles de veces y que se mejora con el uso. Deconstruye y construye constantemente.
Los peligros de los DeepFakes
Los perjuicios que puede causar esta tecnología son innumerables. Implicación en delitos, falsificación de pruebas, suplantación de identidad, daño a la imagen, noticias falsas etc.
La actriz de Wonder Woman, Gal Gadot, fue una de las primeras afectadas. Usando su imagen sobre un vídeo pornográfico se simuló su participación en esta actividad haciendo caer a millones de personas en la trampa preparada. Lo mismo ha sucedido con Cara Delevigne o Kate Perry. Varias plataformas han tenido que censurar estos vídeos.
Obama, Trump o Merkel ya han visto cómo se manipulan sus discursos sin compasión y se emiten mensajes contradictorios, que dentro de un proceso electoral pueden ser fatales para los intereses de un político.
En un plano más cercano y, si cabe, aún más peligroso están las DeepFake de audio. Hace unos días se publicaba una estafa por voz a un empresario al que se le solicitaban 200.000€ para una emergencia técnica. Dando por natural la voz de su interlocutor, cayó en la estafa perdiendo esa cantidad de dinero.
Una muestra más de que la ciberseguridad y la protección de tus datos en un entorno como Internet son cada vez más necesarias. Nunca sabemos por dónde puede llegar el peligro. Con ValoraData de tu lado estarás más seguro.