• SPR Informa
  • SPR Informa
  • SPR Informa
  • SPR Informa
  • SPR Informa
  • https://www.sprinforma.mx/noticia/alexa-eres-machista-los-sesgos-en-la-ia
  • 15 Jul 2024
  • 10:07
  • SPR Informa 6 min

Alexa ¿eres machista?: los sesgos en la IA

Alexa ¿eres machista?: los sesgos en la IA

Por Natalia Zapiain .

Desde hace un par de años, la inteligencia artificial ha comenzado a hacerse parte de nuestra vida diaria. Este tipo de inteligencia tiene como propósito crear dispositivos que tengan la capacidad de imitar el razonamiento humano, con la finalidad de automatizar la tomar de decisiones, resolución de problemas y ahora también la creatividad.

¿Dónde podemos encontrar la inteligencia artificial? ¡En todas partes! En nuestros celulares cuando nos aparecen recomendaciones de cosas que podría interesarnos comprar, en los cajeros automáticos y aplicaciones de los bancos, en las fábricas que buscan automatizar sus procesos, en los vehículos con conducción automática, en los videojuegos, en los chatbots, etc.

Entonces, el objetivo de la IA es crear sistemas capaces de realizar tareas de forma autónoma e inteligente, similar a como lo haría un ser humano, pero nosotros sabemos, como seres humanos, que la forma en la que tomamos decisiones se ve afectada por múltiples factores, entre ellos: nuestros prejuicios.

La IA funciona de acuerdo con los conjuntos de datos que se le vayan agregando al algoritmo, es decir, la manera en la que responde depende de con qué tipo de información se le alimente, procesan grandes cantidades de datos y toman decisiones basadas en patrones y reglas preestablecidas, y así como en otros ámbitos de la sociedad, la subrepresentación de las mujeres en el diseño y desarrollo de la IA, se ha visto reflejada en una discriminación en función del género por parte de la inteligencia artificial.

En este sentido, como la IA aprende de la información que se le presenta, puede reproducir y reforzar estereotipos de género, se ha demostrado que, aún y cuando las mujeres somos alrededor del 50% de la población mundial, hay inteligencias artificiales que tienen dificultad para reconocer rasgos faciales femeninos y voces más agudas.

También, existen algoritmos de contratación que favorecen a los hombres, ya que responden con base en información histórica de contratación y, considerando que históricamente ha habido más hombres en ciertos ramos laborales, perpetúan esta discriminación de género. El caso más conocido es el de Amazon en el 2018, cuando la compañía abrió un proceso de selección y se descubrió que el algoritmo rechazaba mujeres que en muchos casos tenían una formación superior a la de los candidatos hombres.

Basta con pensar en cómo hace menos de 50 años había un problema de sesgo significativo respecto a sobre qué carreras podían estudiar o no las mujeres, si la IA se alimenta de datos de épocas pasadas habrá una clara ventaja hacia el género masculino.

El tema laboral es solo un ejemplo, las inteligencias artificiales están en su auge y comienzan a utilizarse en diversos tipos de procesos, imaginemos cómo esto podría llegar a afectar en áreas como temas de salud pública, definición de políticas públicas, acceso a programas sociales, servicios educativos, entre otros.

Otra cuestión que no podemos dejar de lado es el hecho de que los asistentes personales virtuales más populares, como Alexa y Siri tienen voz femenina, esto se relaciona con el hecho de que la sociedad tiene como estereotipo que las personas que trabajan en servicios secretariales o de asistencia personal son las mujeres. 

La justificación de sus creadores es que las voces femeninas se consideran como más cálidas, acogedoras y agradables para la mayoría de las personas, mientras que las voces masculinas son asociadas con figuras de autoridad, otro sesgo.

En el ámbito internacional, la UNESCO, el Parlamento Europeo y los Dirigentes del G-7, han comenzado a trabajar en estudios, declaraciones y acuerdos respecto a las regulaciones de la Inteligencia Artificial; dentro de lo desarrollado por el G-7 se encuentra el Código de conducta voluntario para los desarrolladores de IA.

Básicamente, si los algoritmos aprenden de conjuntos de datos que contengan sesgos discriminatorios, van a seguir reproduciendo y ampliando la desigualdad social entre hombres y mujeres. Como siempre, la tecnología avanza más rápido que el derecho, por lo que también estamos ante un reto de falta de regulación.

En conclusión ¿qué sigue para este tema? El primer paso es hacer conciencia sobre el impacto de la IA en nuestra sociedad, cómo esto puede reproducir sistemas discriminatorios (no sólo para las mujeres cabe apuntar), la necesidad de cuestionar las bases de datos que se utilizan para dar vida a estas inteligencias artificiales y la importancia de la transparencia en su construcción para estar en posibilidad de prevenir, identificar y mitigar los sesgos discriminatorios.

Y tal vez tu asistente personal virtual no quiera ser machista, son sus datos.