La tecnología no tiene género, tiene sesgos: los servicios de asistencia virtual son personificados como mujeres
Siri, Alexa e infinitos sistemas que prestan servicios, responden consultas y resuelven problemas tienen nombre y voz de mujeres. No es posible que la programación sea neutral, pero ¿cómo operan los sesgos culturales en las tecnologías?
Los servicios de asistencia virtual reproducen el estereotipo de mujer complaciente. Foto: Freepik
Una dirección por GPS, una búsqueda en internet, un reclamo en una empresa de servicios, un trámite en la obra social, una consulta en la empresa de seguros. Hoy todo eso puede hacerse mediante sistemas de asistencia virtual que, casi sin excepciones, están personificados por mujeres. Los estereotipos de género del mundo offline entraman, también, la arquitectura de la red.
Siri en Apple, Alexa en Amazon, la guía por defecto de Google Maps, la respuesta automática de un teléfono ocupado o fuera de servicio, María Luz en Edemsa, Tina en el Estado nacional, Alma en OSEP, Bety en Triunfo Seguros, y la lista sigue. Hay excepciones –como el caso de Quique, de Fuesmen, o Q, un asistente virtual con voz sin género–, pero la generalidad de los casos indica que, virtuales o reales, el rol de asistencia está asignado culturalmente a las mujeres.
También hay quienes, desde una postura biologicista, sostienen que las personas se sienten más a gusto con las voces femeninas, percibidas como más cálidas y dispuestas a ayudar, frente a las voces masculinas, que suenan más autoritarias, como si estuvieran dando una orden. Esta es, de hecho, la postura de Clifford Nass, profesor de la Universidad de Stanford que estudia la interacción humana con las tecnologías.
Otra explicación, bastante imbricada y sin cuestionar estereotipos de género, la intenta dar Brandon Griggs, de CNN. Asegura que hay fuentes según las cuales el uso de voces femeninas en los dispositivos de navegación se remonta a las cabinas de los aviones durante la Segunda Guerra Mundial, para diferenciarse de las voces de los pilotos. Además, las operadoras telefónicas tradicionalmente han sido mujeres, y la gente se ha acostumbrado a recibir ayuda de la voz de una mujer incorpórea.
Pero, como dice un principio filosófico, la explicación más simple suele ser la más probable. Y esa explicación parece ser que, en el mundo en el que vivimos, los roles de asistencia, servicio, obediencia y docilidad están asignados a las mujeres: tienen el mandato de estar a disposición y responder amablemente.
Robotina, de los Supersónicos, ya reflejaba el sexismo en la tecnología. Foto: latam.igm.com
“Todo esto se puede pensar a partir de lo que se llaman sesgos, en este caso, machistas o sexistas. Significa que los dispositivos, las tecnologías, tienen preferencias no neutrales respecto de cómo están programadas”, sostuvo Amalia López, docente de Informática y Sociedad de la Facultad de Ciencias Políticas y Sociales de la UNCUYO.
No hay muchos estudios, y menos de divulgación, sobre este tema, manifestó. Y diferenció las inteligencias artificiales no generativas –como las que usan nuestras redes sociales para mostrar publicaciones relacionadas con nuestras preferencias– de las generativas –como Chat GPT y todas aquellas que generan contenido original a partir de una orden y ensayan respuestas personalizadas que van perfeccionando–. La programación no es neutral, ni en una ni en la otra. Tiene los mismos sesgos que cargan las personas que las fabrican, reafirmó López, y reproduce los sesgos discriminatorios con los cuales socializamos.
“No hay una distinción entre el mundo 'online' y el mundo 'offline', sino que ambas esferas se van coconfigurando, entonces los sesgos con los que nos movemos en el mundo 'bío' se reproducen a nivel informático en el mundo de la red”, explicó.
La tecnología tiene sesgos. Foto: Freepik
En el mismo sentido, la intelectual Wendy Chun, inicia su tesis doctoral con la hipótesis de que las desigualdades –raciales, de género, sexistas, clasistas– del mundo offline se producen y reproducen en el mundo online a través de sesgos. Pero, como pasa con la cultura, no los tenemos presentes de manera consciente y, sin embargo, están en toda la arquitectura de la red.
Tecnología y cultura, entonces, están íntimamente relacionadas: se intersectan y colisionan. No es que los problemas sociales –como la discriminación y la injusticia– se trasladan del mundo offline al mundo online, sino que ellos están allí porque los valores tecnológicos predeterminados están impregnados de prejuicios sociales: “Desde el vamos, la accesibilidad a la programación es desigual porque la mayoría de estudiantes de programación son varones, solo restringiéndonos al género”, ejemplificó la docente.
En esa masculinización del sector radica lo que podrían ser, quizás, parte de los cimientos del problema. Se trata de la idea de que, en la división sexual del trabajo, los varones construyen –piensan, programan, diseñan– la mayoría de las tecnologías y las mujeres asisten –responden, resuelven, complacen– a sus creadores. Algo que se refleja también en la sexualización de los servicios de asistencia virtual feminizados: desde el tono complaciente y, a veces, seductor hasta la existencia de robots sexuales. La Unesco llamó la atención sobre la perpetuación de estereotipos en las tecnologías.
asistente virtual, mujeres, sexismo, sesgos,
Trastornos de la conciencia: crean herramienta informática para simular intervenciones farmacológicas
El desarrollo de científicos del Conicet y colegas permitirá explorar nuevas terapias para esos ...
04 DE NOVIEMBRE DE 2024
Investigadores del Conicet explican por qué los “padrinos” de la inteligencia artificial ganaron el Nobel
John J. Hopfield y Geoffrey E. Hinton recibieron el El Premio Nobel de Física 2024. Los científicos ...
09 DE OCTUBRE DE 2024
¿La inteligencia artificial está matando nuestra creatividad?
Mientras una parte de la sociedad cree que estas herramientas nos hacen menos creativos y nos lleva ...
03 DE OCTUBRE DE 2024