Barcelona, abril 2021– Durante los últimos años muchas de las aplicaciones móvil que se han popularizado nos permiten “jugar” con nuestras imágenes y vídeos, gracias a los avances en las técnicas de procesado de los mismos, y a las capacidades de inteligencia artificial.
Con estas aplicaciones podemos realizar retoques fotográficos (en algunos casos muy avanzados) sin necesidad de poseer conocimientos de fotografía, cambiarnos el color de pelo con Instagram, recrear versiones femeninas o masculinas de nosotros mismos con FaceApp, intercambiar nuestra cara con la de un bebé en Snapchat y mucho más.
La mayoría de estas aplicaciones y herramientas se basan en algoritmos y modelos de inteligencia artificial. Al uso de estas técnicas que hacen posible la modificación de los rasgos del rostro de una persona para hacerla pasar por otra se le conoce como Deepfake.
En el nuevo informe realizado por Three Points, Carlos Rodríguez Abellán, Senior Data Scientist en Telefónica, nos presenta todas las posibles aplicaciones de esta técnica y sus implicaciones morales.
¿Cómo alteran nuestra realidad los Deepfake?
Sin lugar a dudas esta técnica se ve aplicada en nuestro día a día mucho más de lo que sabemos. En algunos casos el resultado concluye siendo simpático, divertido e incluso positivo, pero en otros casos generan desinformación y una gran incógnita en cuanto a lo moral.
En redes sociales se ha notado el efecto más directo con aplicaciones como Faceswap o los filtros de Instagram. En otras industrias de entretenimiento como el cine se han aplicado técnicas de Deep learning para mejorar la calidad de producciones actuales pero también para actualizar aquellas que son antiguas, como el caso de Star Wars. En la producción de publicidades también se ha visto reflejado, un reconocido ejemplo es el comercial de David Beckcham hablando en ocho idiomas diferentes sin pestañear ni equivocarse ni una sola vez. En el área artística se está utilizando esta tecnología a través de una técnica de estilo neuronal que combina imágenes y datos para generar ‘arte’ inteligente.
En cuanto a los medios y noticias, el Deepfake ha mutado hacia lasfake news, lo cual ha causado muchísimo revuelto en el último año ya que incentiva a la propagación de información falsa. Uno de los ejemplos más conocidos es el de Obama declarando en un vídeo (falso, porsupuesto) que “El presidente Trump es un total y completo idiota”.
¿Aliado o enemigo?
Como se ha demostrado, los avances en la generación de rostros sintéticos y la manipulación de vídeo y voz son abrumadores. Sin ir más lejos, con los resultados actuales, en muchos casos puede ser muy difícil, sino imposible, determinar si una imagen de una persona ha sido tomada por una cámara o sise trata de un deepfake. Esto noslleva a pensar que posiblemente, no dentro de mucho, la diferencia entre la realidad y la ficción en los vídeos que veamos en televisión o en internet será apenas apreciable. Esto conlleva en posibles problemas o, como poco, situaciones que desde el plano ético y legal aún no están del todo claras.
Compañías como Facebook, Google o Twitter tratan de luchar contra la generación de este tipo de contenido de diversas maneras. Y, pese a los esfuerzos de estos gigantes de internet, destinados a entrenar modelos cada vez más complejos que sean capaces de clasificar noticias como potencial contenido falso, o a desarrollar herramientas que permitan a sus usuarios reportar fake news, el problema no parece tener fácil solución.
El coste reputacional que esto puede acarrear a los protagonistas de los deepfakes, así como el impacto directo que puede tener en los mercados o en la política,son demasiado elevados como para no considerar un gran riesgo es posible uso ilegítimo que se pueda hacer con los deepfakes.
Sin duda, lo que parece ser necesario es una regulación rápida de las normas que permitan determinar cuáles son los límites a la hora de generar deepfakes.