Según un estudio de Naciones Unidas, Siri refuerza los estereotipos de género

El efecto de unas pequeñas decisiones de diseño podrían tener una gran relevancia en nuestro futuro.

Según un estudio de Naciones Unidas, Siri refuerza los estereotipos de género
Publicado en Apple

Es perfectamente normal ignorar este hecho, pero los asistentes digitales refuerzan los estereotipos de género que tanto nos estamos esforzando por romper. Muchos de nosotros los usamos día a día sin preocuparnos de ello, algo perfectamente normal teniendo en cuenta que no suele ser algo que nos afecte demasiado. La cuestión es, que los fabricantes siguen cometiendo ciertos errores que, a pesar de que como usuarios no le damos importancia, pueden contribuir a mantener modelos sexistas y anticuados.

Esta es la conclusión a la que ha llegado un estudio de UNESCO, compartido desde The Verge, sobre la brecha de género en las competencias digitales. Con el título "I’d blush if I could" o "Me sonrojaría si pudiera" en español, el documento presenta, entre otras cosas, los efectos que pueden tener en la sociedad la parcialidad en el desarrollo de la inteligencia artificial.

También se toman en cuenta en el estudio otros factores como las decisiones en diseño de producto de las compañías tecnológicas. Y los resultados son realmente esclarecedores, ayudándonos a comprender ciertas situaciones que no deberían darse, y que en algunos casos podrían tener soluciones relativamente sencillas. Soluciones que deberían tomarse en cuenta a la hora de desarrollar nuevas actualizaciones, fuera de mejorar la rapidez de los asistentes o su capacidad de conversación.

Según un estudio de Naciones Unidas, Siri refuerza los estereotipos de género

Te puede interesar | El nuevo Asistente de Google es más rápido e inteligente que nunca

Algunas de las características más evidentes pero que solemos pasar por alto son, por ejemplo, las voces por defecto o ciertas respuestas a peticiones con lenguaje inapropiado. Años después, las empresas siguen optando por predefinir el uso de una voz femenina en los asistentes digitales en lugar de presentar opciones alternativas en el primer inicio del sistema. Y eso sabiendo que es posible cambiar la voz en cualquier momento en los ajustes del sistema.

En estos casos, normalmente se asocia el que los asistentes tengan una voz femenina por defecto a una mayor comodidad para el usuario. Las voces usadas tiene un valor fundamental a la hora de impulsar el uso de un asistente, ya que no es lo mismo que te responda una voz amable a una voz agresiva.

Sin embargo, se pueden obtener tanto voces femeninas como masculinas que cumplan con esa condición. Incluso, se podría lograr una voz de género neutro, como mostró una iniciativa experimental recientemente.

Te puede interesar | Siri y Google Assistant son los asistentes más utilizados del mundo pero el 41% de los usuarios teme por su privacidad

Tampoco ayuda el que eviten indicar su disconformidad con respecto a las peticiones inapropiadas de los usuarios y opten por el humor, o simplemente indiquen que no entienden la petición. Es cierto que no son personas, pero si descuidamos nuestro comportamiento a la hora de tratar con una máquina, con el tiempo podríamos acabar trasladando esos malos hábitos a nuestras relaciones, algo con lo que deberíamos de tener cuidado, especialmente cuando lo usan los niños.

Según un estudio de Naciones Unidas, Siri refuerza los estereotipos de género

Precisamente, uno de los motivos por los que se debería tomar más en cuenta este tipo de decisiones es para procurar fomentar un uso adecuado de la tecnología en las futuras generaciones. Que las conversaciones con estos asistentes contribuyan a mejorar la forma en que nos relacionamos, incluso cuando a veces puede sonar algo estúpido por aquello de que no es lo mismo hablar con una máquina que con alguien de carne y hueso.

Por otra parte, encontramos un error aún más evidente y que podría ser el más difícil de resolver: los nombres de los asistentes. Con el paso del tiempo, sí que hemos ido aprendiendo a usar nombres neutros para los asistentes, como Asistente de Google o Bixby, pero aún tenemos nombres femeninos en tres de los principales: Siri, Alexa y Cortana. Por supuesto, se trata de algo que es complicado de resolver debido al valor de las marcas usadas por estos programas.

Te puede interesar | Siri, NFC, Marzipan y realidad aumentada, así mejorarán las apps de iOS 13 y macOS 10.15

En cualquier caso, no hay nada imposible de resolver en este sentido. Son muchas las decisiones que se pueden tomar para evitar que los asistentes digitales perpetúen roles perjudiciales de género, y no todas son tan grandes como cambiar el nombre del asistente. Dar la opción a los usuarios de elegir la voz del asistente con el primer uso o definir respuestas más claras que eviten que el usuario se acostumbre a tratar de forma irresponsable al asistente podrían ayudar a mejorar la situación en el mundo real.

Puedes seguir a iPadizate en Facebook, WhatsApp, Twitter (X) o consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.

Para ti
Queremos saber tu opinión. ¡Comenta!