Se veía venir: la incorporación de AI al contenido para redes sociales en temporada alta de fake news era una bomba a punto de estallar. Y así se sintió cuando le tocó a la persona del año -según la Revista Times- y cantante del momento, Taylor Swift. Ella está nuevamente bajo el foco de los haters, aunque esta vez se pasaron de tono. El 25 de enero, usuarios desconocidos se encargaron de distribuir falsos videos porno de la dueña y señora de las Eras, Taylor Swift. ¿Te suena familiar? Esta técnica de ciberacoso se llama deepfake y su práctica se remonta a unos años atrás.
¿Qué es el deepfake?
Este término surge de un foro de Reddit llamado r/deepfakes que, en 2017, inundó internet de vídeos pornográficos con las caras de grandes actrices, como Scarlett Johansson y Emma Watson. Un deepfake es un video, una imagen o un audio generado que imita la apariencia y el sonido de una persona.
También llamados «medios sintéticos», son tan convincentes a la hora de imitar lo real que pueden engañar tanto a las personas como a los algoritmos. Los deepfakes son generados por la IA en directo, y sus formas más comunes de aplicación son en videos o como filtros de realidad aumentada.
¿Ejemplos?
Una aplicación que cambia tu cara por la de un famoso.
El sitio web This Person Does Not Exist, que carga un nuevo rostro humano generado por GAN cada vez que se actualiza.
Los ya conocidos videos porno de celebridades, cuyo único objetivo es asociar su imagen a contenido para adultos y ensuciar su reputación.
Esta modalidad, pasada de moda como chiste viejo, no logra atacar a la reina del momento y cantautora del disco Reputation, Taylor Swift, quien ya sufrió un ataque similar en 2019, cuando el rapero Kanye West lanzó un vídeo musical donde se acostaba con una réplica de cera a tamaño natural de su cuerpo.
Aunque el problema va más allá, ya que este tipo de videos se producen en base a material original de la industria del cine para adultos, donde se edita el cuerpo de otras actrices sin consentimiento, créditos ni compensaciones. Y así es como esta semana se publicaron un videos deepfake de Taylor y, por la gran popularidad de la artista, llegaron a 45 millones de visitas en 17 horas, hasta que fue eliminada la publicación de la plataforma Twitter/X. ¿Qué hicieron las swifties? La respuesta te sorprenderá.
Fakeseeding o “el arte de trollear a los trolls”.
Para sorpresa de nadie, el ejército de fans de la cantante tenía un plan para darle una cucharada de su propia medicina a los haters de X. Lejos de despotricar y lanzar comentarios hirientes, su as bajo la manga fue una estrategia de contenido cuyo objetivo principal era enterrar el material pornográfico. Algo así como la elección del título “Frozen” de la película de Disney, para erradicar los rankings de búsqueda sobre el cadáver congelado del dueño de la compañía.
La metodología utilizada se conoce como fake seeding (siembra de archivos falsos, en español) y funciona nombrando y etiquetando contenidos random con los términos de búsqueda que buscás “limpiar”. De esta forma, aprovecharon el hype de las búsquedas utilizando el trending topic “Taylor Swift AI” para impulsar imágenes y clips reales de la cantante y eliminar los rastros del trolleo. Una alternativa inteligente y efectiva de combatir un ciberataque usando las herramientas de la plataforma a tu favor. Swifties: 1, haters: 0.
¿Quién será él o la próxima?
Más allá de este episodio pornográfico, es interesante pensar qué está pasando en la relación entre el deepfake y las marcas. La tecnología deepfake tiene aplicaciones negativas y positivas, y es importante ser conscientes de su potencial y utilizarla de forma responsable.
¿Dos ejemplos positivos?
El film Indiana Jones 5, que utilizó esta herramienta para rejuvenecer a Harrison Ford en las secuencias donde se mostraba a Indiana en su juventud.
David Beckham protagonizó una campaña contra la malaria. Grabó un único vídeo clip sobre el que se aplicó Inteligencia Artificial para que reprodujera el mismo mensaje en nueve idiomas. Se manipularon sus movimientos faciales, creando así la ilusión visual de que realmente estaba hablando en cada idioma.
Sin embargo, el uso del deepfake para la estafa está en alza. En octubre del año pasado, TikTok publicó un anuncio que mostraba una versión del youtuber MrBeast generada por IA que aseguraba regalar un iPhone 15 por menos de 2 euros en un sorteo de 10.000 celulares. Sin embargo, la letra pequeña de su link indicaba que se trataba de un programa de inscripción automática mensual, en el que había un cargo inicial de 6,95 dólares y luego un pago mensual indefinido de 139,67 dólares.
A su vez, Tom Hanks alertó a sus seguidores en Instagram que él “no tenía nada que ver” una de las estafas generadas por deepfake, en el que “promociona un plan dental”.
El 2024 es un año electoral en EE.UU., y es muy probable que veamos muchos más episodios de estos, llamando a la gente a tomar alguna forma de acción: comprar algo o votar a alguien.
En este sentido, es clave ser conscientes del poder del deepfake y de su capacidad de engañar; promover la alfabetización mediática y el pensamiento crítico. Pero lo más importante es que los gobiernos adopten medidas para obligar a plataformas como Meta, TikTok o Google a asumir su responsabilidad y regular esta tecnología para prevenir estafas y proteger a los usuarios.
Yorumlar