• SPR Informa
  • SPR Informa
  • SPR Informa
  • SPR Informa
  • SPR Informa
  • https://www.sprinforma.mx/noticia/cuando-la-distopia-es-el-objetivo-como-una-empresa-esta-disenando-el-futuro-basada-en-una-pelicula
  • 23 May 2024
  • 10:05
  • SPR Informa 6 min

Cuando la distopía es el objetivo:

Cuando la distopía es el objetivo:

Por Ernesto Ángeles .

Cómo una empresa está diseñando el futuro basada en una película.

Si gustas de películas futuristas y de ciencia ficción, seguro conoces o has visto la película llamada “Her”, esta se trata de la historia de un hombre que se enamora de un asistente digital propulsado por Inteligencia Artificial (IA), mostrando algunos problemas emocionales y humanos que las relaciones entre máquinas y personas podrían generar, tal como la soledad y la dependencia. 

Y así como ha pasado con políticos y empresarios con obras como 1984 o Fahrenheit 451, algunas de las personas tomadoras de decisión en las grandes empresas tecnológicas han adoptado a esta película como una guía o una hoja de ruta, en vez de como una advertencia.

 Ya lo demostró Sam Altman, presidente de Open AI, cuya empresa promocionó que la nueva característica de su producto estrella, Chat GPT, ahora contará con la habilidad de establecer vínculos amistosos y hasta flirtear con el usuario; sí, como si la humanización de esta tecnología no pudiera generar problemas sociales o como si esta tecnología fuera más que una serie de asociaciones matemáticas de inmensas bases de datos alojados en infraestructuras monopolizadas de acero y silicio. 

Pensemos en el caso que estos asistentes virtuales mejoren en sus capacidades de interacción y persuasión, al punto que las personas desarrollen vínculos emocionales hacia estos productos; en esta situación los agentes virtuales podrían no sólo promocionar productos en conversaciones casuales, sino que podrían influir en una amplia gama de situaciones, tal como las preferencias políticas o las parcialidades sociales inherentes a la propia tecnología. 

Si esto no fuera suficiente, la empresa dueña de GPT está tan obstinada en traer una distopia de la pantalla grande a la vida de las personas, que su CEO, Sam Altman, le pidió a la actriz Scarlett Johansson, la voz original de la película “Her”, que les permitiera usar su voz para que fuera la nueva voz de GPT con el fin de: “cerrar la brecha entre las empresas de tecnología y los creadores de contenido, así como ayudar a los consumidores se sientan cómodos con el cambio radical que afecta a los humanos y la IA”. Sin embargo, debido a consideraciones personales, la actriz declinó la oferta de Altman de ser la voz de su modelo de IA. 

El problema es que Open AI no paró ahí, sino que tiempo después sacó una demo de la nueva interfaz de GPT, al cual decidieron llamar a Sky y que curiosamente sonaba muy parecido a la voz de Scarlett Johanson, siendo muy difícil hasta para sus familiares y amigos distinguir la diferencia entre las dos, según la artista. Ante esta situación la actriz decidió buscar ayuda legal, los cuales contactaron a Altman para preguntarle a detalle el proceso con el cual se produjo Sky, a lo que la empresa dueña de GPT contestó dando de baja su producto y respondió que la voz usada para su modelo de IA es de una profesional en el área y que no podían decir su identidad por razones de protección de protección de datos.

Ante esta situación, muchas personas se preguntan qué consecuencias podría tener que una de las actrices más conocidas a nivel mundial lleve a la corte a una de las empresas más influyentes del mercado de IA, no sólo para la empresa, sino para el mercado de IA; además, no hay que olvidar que Johansson es una actriz que logró una negociación favorable por su demanda en contra de nada menos que Disney. 

El desenlace de este caso depende de factores como: la postura de quienes tienen los derechos de la película de “Her”; si existió el uso de datos de la voz de Scarlett Johansson para el entrenamiento de esa interfaz; si contrataron a una profesional y a esta le dieron la indicación de simular la voz de Johansson; si se llega a una negociación exitosa, en fin, la lista de posibilidades es amplia. 

Sin embargo, lo anterior pone de relieve un problema que se ha vuelto constante en el mercado de la IA y la tecnología digital en general: el abuso; y es que las prácticas abusivas que llevan a cabo las empresas tecnológicas y algunos actores mal intencionados no sólo incluyen el abuso a los usuarios, sino también a los consumidores, a los clientes y hasta a los internautas mismos, ya que internet se ha vuelto una inmensa aspiradora que extrae y se apropia constantemente del valor producido por otros, especialmente el valor asociado al comercio de datos, la publicidad, el contenido multimedia y más actualmente el entrenamiento de modelos de IA, muchas veces sin el consenso informado de las personas.  

Otro triste ejemplo que acompaña a Scarlett Johansson (y a muchas mujeres más, como el reciente caso de Taylor Swift), es el uso de fotos para generar Deep fakes pornográficas, un fenómeno que ha aumentado conforme la disponibilidad de recursos de cómputo y modelos de IA ha crecido; dicho problema no sólo afecta a mujeres famosas, sino que se extiende a prácticamente cualquier mujer, ya que han habido casos en donde compañeros de escuela o trabajo usen las fotos de sus compañeras para generar pornografía, tal como el caso de un alumno del IPN. 

En conclusión, esto nos muestra que las empresas están dispuestas a atropellar no sólo la propiedad intelectual y los datos personales, sino a ir en contra de la identidad personal y abusar de las emociones de los demás, todo mientras promocionan una idea distópica pero romantizada de la tecnología, en donde ellos son actores responsables, preocupados y enfocados en traer las mejores bondades de la tecnología a la sociedad, mientras que, al mismo tiempo, intentan salvar al mundo de los riesgos que, irónicamente, sus productos están creando.