• de Lun a Vie de 9 a 17 hs
  • |
  • ciberseguridad@ba-csirt.gob.ar
01 junio
Cómo los Deep Fake pueden estar disponibles para todos para las mentiras piadosas

Deep Fake son técnicas de edición de video que lograron notoriedad por ser utilizadas en el uso de campañas de desinformación, pero podrían utilizarse también en servicios de uso cotidiano con las videollamadas.

¿Suele mentir cuando habla por teléfono? Puede que eso este por acabar.
Durante el confinamiento se han hecho populares aplicaciones de videollamada que antes solo se utilizaban por cuestiones laborales o relaciones a distancia, pero es probable que después de la cuarentena, su uso continúe en crecimiento.

Las pequeñas y grandes mentiras que sustentan la convivencia y que se basan en la no-visibilidad pueden acabar desapareciendo. Esto significa que ya no podrá decir que está saliendo por la puerta cuando llega tarde a una cita y todavía está en pijama y despeinado. Tampoco que va camino a casa cuando está en la puerta del boliche.

Aquí es donde entra en juego el Deep Fake. Mediante estas técnicas, basadas en la inteligencia artificial (Deep Learning para más señas), se pueden crear imágenes audiovisuales falsas que parezcan reales. Como para que sirva de ejemplo, en vez de cambiar el fondo, Avatarify es una iniciativa que busca reemplazar un rostro en una videollamada mediante el uso de la técnica conocida como Deep Fake.
Otro ejemplo, mucho más delicado, podría ser el crear un vídeo totalmente verosímil del Presidente de un Gobierno diciendo alguna barbaridad que obviamente, no ha dicho. Estos vídeos hiperrealistas pero falsos son muy peligrosos en sociedades tan expuestas a las fake news y tan poco dispuestas a corroborar la veracidad de la información que recibe a través de las redes sociales.

En nuestro Canal de YouTube (BA-CSIRT), podrán ver el video perteneciente al Programa de Concientización #CiberCuidadosEnCasa donde hablamos sobre “Engaños en la Red” y abordamos el tema de las Fake News.
https://www.youtube.com/channel/UCl9wKp4vUhy5U9K97ipvqxA

El proceso para la fabricación de Deep Fakes no es tan simple. Pero al ritmo que avanza la tecnología pronto podría ser útil para crear falsos vídeos que podríamos utilizar como respuesta a las videollamadas, sobre todo cuando queremos mentir u ocultar algo.
En algunas aplicaciones de videollamada ya puede uno ponerse un fondo que desee o utilizar alguno de la galería que la herramienta propone. Pero aplicaciones como Avatarify ya trabaja en crear avatares de nosotros mismos en las videollamadas.
¡Que no te atrapen con este truco!

Referencia:

www.lanacion.com.ar/tecnologia/como-deep-fake-pueden-estar-disponibles-todos-nid2371338

Tu opinión nos ayuda a seguir creciendo.

Seleccioná la cantidad de estrellas que consideres apropiada.

BA-CSIRT, ¿cómo reportar un indicente de ciberseguridad?