Alertan por “Deepfakes”, imágenes manipuladas creadas con inteligencia artificial

1006

Agencias.- Las imágenes manipuladas o “deepfakes” se generan con algoritmos a través de la inteligencia artificial que pueden leer los rostros faciales de fotografías y videos tomadas desde distintos ángulos; gracias a esta información se consigue recrear la voz y la imagen de una persona simulando sus gesticulaciones sobre la cara de otra que terminan siendo tan creíbles que es difícil que cualquier logre darse cuenta de que son mentira.

 

Gracias al “machine learning” varios softwares utilizan una gran cantidad de recursos audiovisuales cada vez que crean un “deepfake”.

 

Con los “deepfakes” se puede volver a traer a la vida a famosos ya fallecidos, como llegó a realizar la cervecera Cruzcampo en un anuncio en el resucitó a la cantante española Lola Flores.

 

Por otra parte, sn las manos equivocadas los “deepfakes” podrían ser en una herramienta utilizada para desinformar de tal forma que termina siendo mucho más sofisticada que las fake news. Ya que es posible colocar palabras en la boca de un presidente que pida generar desorden público o desacreditar a activistas haciéndolos aparecer en falsos videos pornográficos.

 

El término “deepfake” emergió en 2017 por un usuario de la plataforma Reddit que con ese nombre subió videos con los rostros de famosas como Taylor Swift o Gal Gadot en el cuerpo de actrices porno.

 

Claire Wardle, periodista cofundadora y directora de First Draft, extortó en un artículo publicado en The New York Times en el que señala que los “deepfakes” podrían ser utilizados por políticos para rechazar que aparecieron en un video cometiendo un crimen o un hecho reprobable. Un ejemplo sería cuando Donald Trump, expresidente de EU, logró sembrar la duda de que fuese él quien aparecía en un video filtrado antes de las elecciones presidenciales de 2016 en el que se veía que él estaba realizando comentarios groseros sobre las mujeres.

 

Otro ejemplo sucedió en 2018, cuando Ali Bongo, presidente de Gabón tenía meses si que haya sido visto lo que había provocó rumores sobre su salud. Fue después de un mucho tiempo que reapareció en un video en el que dió un el discurso de Año Nuevo, dada la rigidez y poca naturalidad de sus gestos despertaron dudas sobre era un “deepfake”. The Washington Post realizó una investigación sobre este video y consultó a expertos en inteligencia artificial que precisaron que es muy viable que fuera cierto y que la gestualidad artificial podría deberse a secuelas de un derrame cerebral.

 

Sentinel logró identificó desde 2019 un crecimiento del 900 % de los “deepfakes”, después de pasó de unas 14,500 a 145,000. en el mayoría de estos fueron compartidos en redes sociales y lograron sumar cerca de 6,000 millones de visualizaciones. Este crecimiento acelerado es debido a que cada vez es son fácil de crearlos.

 

Para poder reconocer un deepfakes se aconseja mirar si la fuente de dónde proviene el video es conocida y confiable y si no lo es, se recomienda buscar si aparece en otras fuentes respetables como periódicos.

No hay publicaciones para mostrar

Dejar respuesta

Please enter your comment!
Please enter your name here