Por qué Siri y Alexa son machistas
Un informe de la Unesco concluye que los asistentes virtuales, diseñados con voces y perfiles femeninos «sumisos y serviles» refuerzan los estereotipos de género
Uno de los pasatiempos más frecuentes de los adolescentes que tiran de iPad o iPhone es vacilar a Siri con bromas y cuestiones absurdas. Así ... que pocos habrá que no sepan que al soltarle 'eres una zorra', el asistente virtual de Apple, en tono sumiso, replica: 'Me sonrojaría si pudiera'. Eso, al menos ocurría hasta abril, cuando en la última actualización del sistema operativo los responsables de la multinacional de la manzana mordida optaron por cambiar la respuesta automática ante este insulto a un escueto 'me has dejado sin palabras' o '¿perdón?'.
'Me sonrojaría si pudiera' es, precisamente, el título del informe que acaba de hacer público la Organización de Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco), un extenso estudio que concluye en que la mayoría de los asistentes digitales, diseñados con perfiles femeninos, alimentan los estereotipos sexistas. Es decir, que tanto Siri, como sus compañeras Alexa (Amazon) o Cortana (Microsoft), son unas machistas redomadas.
O mejor dicho, lo son sus programadores, que han diseñado estos robots virtuales con perfiles femeninos, desde la voz a la personalidad, y un carácter «sumiso y servil» para atender órdenes. De hecho, aunque algunos pueden ser modificados para contestar con tono masculino, la inmensa mayoría de los sistemas de inteligencia artificial vienen programados de serie como si de mujeres atentas y serviciales se tratase, «complacientes y con ganas de agradar», lo que refuerza la idea de que somos «subordinadas» ante la autoridad.
El informe pone el acento en las respuestas «mediocres» con las que se ha programado a estos asistentes ante los insultos hasta el punto de considerar el abuso verbal «como un flirteo». Un peligroso mensaje si es interiorizado por nuestros adolescentes como que las mujeres «siempre respetan órdenes y responden a las preguntas independientemente de su tono y hostilidad», lo que sería normalizar el papel de las víctimas como «tolerantes» al maltrato. «La sumisión de Siri ante el abuso de género y el servilismo expresado por tantos otros asistentes digitales proyectados como mujeres jóvenes proporciona una poderosa ilustración de los sesgos de género codificados en productos de tecnología», sostienen los expertos de Unesco.
Ejemplos más cercanos
No hay que ir hasta Cupertino o Seattle para encontrar ejemplos de sexismo en las aplicaciones de inteligencia artificial. Aquí en casa tenemos a Aura (Movistar), Irene (Renfe) y Sara (Correos). Ni una sola voz de hombre complaciente y educado en la tarea de agradar y servir. ¿Casualidad? A estas alturas de la película -llámenos desconfiadas- creemos que no. En realidad, las empresas basan su elección en estudios que sostienen que los usuarios prefieren interactuar con mujeres, ya que la voz femenina es percibida como más servicial, en lugar que con voces masculinas, asociadas a la autoridad. Es decir, una vez más se refuerza el cliché de que los hombres mandan y las mujeres obedecemos y servimos.
Hace unas semanas, algunas calles de Madrid amanecieron empapeladas con carteles con los lemas 'Alexa, hazme la compra', 'Siri, quiero cenar sushi' o 'Aura, ponme el fútbol', Se trataba de 'Voces en igualdad', una original y oportuna campaña llevada a cabo por la agencia Tango para la Confederación Nacional de Mujeres en Igualdad y la Asociación de Hombres por la Igualdad de Género, que trasladaba al entorno de la inteligencia artificial situaciones de machismo que aún perviven en el ámbito doméstico. Así, quizás, se vea un poco más claro. «A veces los estereotipos de género están tan instaurados en nuestra cotidianidad que pasan desapercibidos», sostienen los impulsores de la campaña, convencidos de que las voces femeninas en los asistentes virtuales constituyen una barrera más que «dificulta el cambio» hacia una sociedad igualitaria.
La Unesco ha recomendado a las empresas tecnológicas crear «asistentes digitales neutros» o que al menos «desalienten» con mayor contundencia el uso de insultos basados en el género. En España, hasta la fecha, solo Correos ha reaccionado ante la campaña #Vocesenigualdad: ha anunciado que próximamente incorporará a Antonio, un asistente virtual del género masculino. ¿Se quedará, como Siri, 'sin palabras' si le llamamos 'zorro'? Ah, no, que en ese caso es muy posible que hasta se sintiera halagado.
¿Tienes una suscripción? Inicia sesión