• SPR Informa
  • SPR Informa
  • SPR Informa
  • SPR Informa
  • SPR Informa
  • https://www.sprinforma.mx/noticia/taylor-swift-y-el-problema-de-las-deep-fakes
  • 02 Feb 2024
  • 10:02
  • SPR Informa 6 min

Taylor Swift y el problema de las “Deep Fakes”

Taylor Swift y el problema de las “Deep Fakes”

Por Ernesto Ángeles .

Hace unos días se desató un escándalo a lo largo y ancho de internet, el cual afectó especialmente en la red social X (antes Twitter), la razón de esto se debió a que empezaron a circular en la red diversas imágenes pornográficas de la cantante Taylor Swift, las cuales fueron creadas con Inteligencia Artificial (IA), en una violación a la imagen, privacidad y honor de la cantante estadounidense. Las imágenes tuvieron más de 45 millones de visitas antes de que fueran bloqueadas en X.

Ante este panorama han surgido una serie de debates y preguntas tales como ¿Qué tipo de tecnología es y cómo funciona? ¿Se puede regular? ¿Es posible erradicar estos peligros de la red? ¿Cómo esto afecta a la sociedad y a las personas individualmente? ¿Cómo esto impacta otras áreas? Entre muchas otras cuestiones.

Para comenzar, es necesario señalar que la manipulación y creación de contenido falso es tan vieja como el contenido multimedia mismo, se dice que Stalin mandó a modificar las fotos en donde aparecía gente que se hacía su enemiga, mientras que Photoshop fue creado desde 1990, ya ni se diga de la manipulación de audio y la trasmisión de hechos inventados, la cual tiene existiendo desde el origen de la radio en pleno siglo XIX. Sin embargo, el factor que ha cambiado en la actualidad es la forma en la que el engaño multimedia se hace: el contenido falso ahora es más difícil de diferenciar del verdadero; su escala de transmisión ha aumentado; mientras que el costo y la dificultad de hacerlo ha disminuido. Ahora no se necesita mucho para crear contenido falso. 

El nombre que recibe el contenido falso y engañoso creado sin la ayuda de la IA es “cheap fakes”, estas consisten en manipulaciones multimedia como recortes selectivos, descontextualización, suplantación, edición o hasta hacer la reproducción del contenido más lenta, con el fin que parezca que la persona hablante está ebria. Este tipo de manipulación informativa es bastante usual en medios amarillistas y sensacionalistas, y en algunos casos, también en medios serios; además, su uso también es común en el contexto de la política y las contiendas electorales, así como también en la seguridad.

Por su parte, el contenido multimedia creado con la IA recibe el nombre de “Deep Fake”, esto derivado de la técnica de IA asociada a su creación (Deep Learning), aunque este concepto es coloquial y no tiene una definición técnica acordada; mientras que un término más formal es el de “synthetic media” o multimedia sintética y tal como su nombre lo dice, es la creación de contenido sintético (video, imágenes, texto, audio) por medio de IA.

Es importante señalar que, debido a la aparición de tecnologías como la IA generativa, la capacidad de crear multimedia tecleando instrucciones ha llegado a millones de personas, esto implica que en algunos casos el uso que se hará de tal tecnología será dañino. 

Ya desde el 2017 se publicaron en línea las primeras imágenes sexuales creadas sintéticamente, desde su origen esta clase de imágenes ha afectado más a las mujeres y tan sólo en el año pasado se publicaron más de 143 mil deep fakes en la red. 

Además, las deep fakes también pueden ser usadas para crear imágenes de abuso infantil; usarse como herramienta de extorsión; venganzas; humillaciones; así como generar daño físico y psicológico resultado de un ataque a la imagen y reputación. 

Sin embargo, los riesgos y peligros asociados a la creación de contenido falso no sólo abarcan la pornografía y el daño a la reputación y el honor, sino que puede incluir áreas como las finanzas, la política y hasta la seguridad nacional. 

En el caso de las finanzas esto ya ha sucedido, se han dado casos en donde se suplanta la identidad de personal de alto perfil por medio de media sintético, ya sea usando audio o video falso con el fin de cometer estafas; conforme el uso criminal de la media sintética se extiende, existe la probabilidad que estos casos de fraude y suplantación de identidad digital también se extiendan a los hogares, tal como ya ha pasado en México, en donde se han creado videos falsos de personajes políticos invitando a invertir dinero.

La política tampoco es ajena al riesgo de la media sintética, ya que se han dado casos, nacionales e internacionales, en donde se retrata a personas de la política en situaciones falsas, tal como conversaciones que nunca existieron o videos creados artificialmente. En este contexto es probable que se lleguen a usar técnicas mixtas entre deep fakes y cheap fakes, en donde se inserte un audio falso en un video real editado o se extienda la duración de un video editado por medio de insertar video falso; etc. 

En lo que respecta a la seguridad nacional, el uso de multimedia falso puede ser especialmente pernicioso en contra de gente que toma decisiones tal como la clase política, las fuerzas de seguridad o el personal de instituciones críticas como la administración de infraestructura, ya que un contenido falso puede llevar a malas decisiones en caso de que se crea la mentira y se carezcan de procesos de verificación. 

Además, gracias al multimedia sintético es probable que la nueva generación de bots sea más difícil de detectar, esto debido a que ahora los perfiles falsos en redes sociales no sólo tendrán la posibilidad de crear texto automáticamente, sino también imágenes, video o audio; lo que los volverá bastante más difíciles de identificar entre un usuario real y un bot. Esto hará más fácil la posibilidad de crear campañas de ataque en contra de empresas, personas y, claro, la clase política. 

Sin embargo, la peligrosidad y riesgo de estas falsedades depende de factores más allá de lo auténtico o no que parezca el multimedia falso, tal como la confianza que las audiencias tengan de la persona atacada o lo creíble que pueda resultar la acción en cuestión, puesto que en algunos casos lo burdo de algunas mentiras ayuda a aumentar el impacto que tiene el desenmascarar las falsedades más que la mentira misma. 

En este contexto es necesario recordar que el uso de multimedia falso no es nuevo, por lo que los esfuerzos de concientización ya tienen una base en el imaginario colectivo. Entre las distintas estrategias para luchar contra el multimedia sintético está la propuesta de crear una marca de agua para los modelos de IA, disminuir el tiempo de monitoreo y reacción en las redes sociales, limitar las posibilidades de creación en los grandes modelos de IA o concientizar a las personas. 

Sin embargo, y tal como es usual en los asuntos digitales, este problema no se puede erradicar y básicamente llegó para quedarse, por lo que es necesario que la atención al problema tenga una dimensión social antes que técnica, ya que varios años de existencia de internet nos han demostrado que en algunos casos las soluciones tecnológicas no sólo no alivian el problema, sino que dotan de más capacidades de control a unos cuantos.