No es solo porno: un estudio avisa de cómo los Deep Fakes pueden acabar manipulando nuestra opinión

Deep Fakes

Utilizar nuestros datos personales para manipularnos con mensajes personalizados pronto será cosa del pasado. Varios estudios e informes empiezan a hablar cada vez más del peligro que pueden acabar suponiendo los Deep Fakes, y de cómo en pocos años podrían empezar a utilizarse para desinformarnos con información falta y manipular nuestra opinión.

El último estudio que ha apuntado en esta dirección lo ha publicado el Center for a New American Security (CNAS), una organización bipartidista estadounidense sin ánimo de lucro que busca promover temas de seguridad entre los políticos. Se trata de un informe sobre Inteligencia Artificial y Seguridad Nacional, y entre los peligros generados por IA mencionan unos DeepFakes que podrían empezar a ser capaces de engañarnos dentro de cinco años.

El estudio mete a este tipo de vídeos de contenidos falsificados en la categoría de la propaganda computacional, que se aprovecha de las pocas barreras que tienen las redes sociales para "difundir contenido falso, engañoso o hiperpartidista". Sobre los Deep Fakes en concreto, el autor dice lo siguiente:

Los sistemas de IA son capaces de generar grabaciones de voz sintéticas realistas de cualquier individuo para quien hay un conjunto de datos de entrenamiento de voz lo suficientemente grande. Lo mismo pasa cada vez más también con el vídeo. Al escribir estas líneas, el audio y el video falsificados "Deep Fakes" se ven y suenan notablemente incorrectos, incluso para las personas no entrenadas. Sin embargo, al ritmo que estas tecnologías están progresando, es probable que estén a menos de cinco años de poder engañar al oído y los ojos no entrenados.

Con esto, el autor del informe dice que aunque ahora sea bastante fácil distinguir a los Deep Fakes, esta tecnología podría estar a menos de cinco años de ser capaz de engañar a personas que no están familiarizadas con ellas, y que no tienen los conocimientos suficientes como para distinguirlos. En cualquier caso, no hay que olvidar que esta es una estimación de un estudio concreto, y que dependiendo si evoluciona esta tecnología y cómo lo va haciendo, podría ser más o menos tiempo.

Hany Farid, experto en tecnología forense del Dartmouth College, también apuntó en esa dirección cuando la semana pasada le dijo a AP News que seguramente en las próximas elecciones de Estados Unidos se empezarían a ver Deep Fakes para intentar manipular a los votantes. "La tecnología, por supuesto, no conoce fronteras, por lo que espero que el impacto se propague por todo el mundo", dijo también asegurando que sería un problema global.

En febrero, 26 investigadores de 14 organizaciones realizaron un informe sobre los mayores peligros de la Inteligencia Artificial. Aunque de forma breve, en él se mencionaba explícitamente a los Deep Fakes apuntando a cómo su realismo supone el principio del declive de la máxima "ver para creer", y congratulándose sobre cómo algunas plataformas sociales están empezando a bloquear este tipo de contenido.

Y esto no ha hecho más que empezar

Los Deep Fakes empezaron a hacerse populares en la red a finales del año pasado. Se trata de unos vídeos manipulados por algoritmos para cambiar las caras de quienes salen en ellos para que se parezcan a la de personajes famosos que gestualizan igual que en los vídeos. Empezaron como un simple entretenimiento para generar vídeos pornográficos de famosas, pero poco a poco está mostrando su potencial de manipulación.

El mejor ejemplo de lo que podría estar por venir lo vimos en abril, cuando se utilizó una tecnología derivada llamada Deep Video Portrait para manipular un vídeo de Obama y hacerle explicar los peligros que supone este tipo de manipulación.

En este vídeo se notaba bastante que se trataba de algo manipulado, pero tal y como están avisando en informes como del que os hemos hablado hoy, en pocos años este tipo de tecnologías y algoritmos podrían hacerse mucho más eficaces a la hora de engañarnos y hacernos creer lo que sus creadores quieran. Sobre todo porque también hay una variante llamada Deep Voice en la que se usa el mismo aprendizaje profundo para que las IA aprendan a imitar voces.

Y es que al final, para que invertir en comprar nuestros datos para mostrarnos publicidad que apunta a páginas de información falsa como pasó con Cambridge Analytica, si quizá pronto sea posible entrenar a este tipo de algoritmos para poner en la boca de alguien en quien confiamos cosas que realmente no han dicho.

En Magnet | No te creerás (y haces bien) lo que dice Obama en este vídeo

También te recomendamos

Desafiando todos los obstáculos: los impactantes retratos y fotografías de acción del Embajador de Canon Samo Vidic

Facebook y su inteligencia artificial ante la delgada línea entre libertad de expresión y censura

Distopías probables: cuando el Gran Hermano seamos nosotros mismos

-
La noticia No es solo porno: un estudio avisa de cómo los Deep Fakes pueden acabar manipulando nuestra opinión fue publicada originalmente en Xataka por Yúbal FM .




Fuente: Xataka
Enlace: No es solo porno: un estudio avisa de cómo los Deep Fakes pueden acabar manipulando nuestra opinión

Comentarios