Quand les assistants vocaux renforcent les stéréotypes sexistes

Beaucoup d’entre nous aujourd’hui, ont accueilli une nouvelle colocataire, une assistante vocale au nom de Siri, Alexa, Cortana ou autre.  Toujours prête à nous répondre, toujours disponible, elle nous donne la météo, nous indique où commander une pizza ou joue notre musique favorite sans avoir besoin de lever le petit doigt, enfin le pouce ! 

Ces assistants vocaux, sont en majorité dotées de voix féminines par défaut. Il me semble important de questionner ce point commun entre Alexa, Siri et les autres. C’est cette question qui est abordée dans l’étude publiée par l’Unesco en mai 2019. Cette étude est titrée « I’d blush if i could », l’une des réponses attribuées à Siri lorsqu’elle reçoit des propos insultants.

Les créateurs des identités des assistants vocaux justifient le choix d’une voix féminine par des études menées auprès des consommateurs. Ces derniers préfèrent une voix féminine à une voix masculine. Ce serait donc un choix mercantile. Néanmoins, les recherches montrent que les voix masculines sont préférées pour les discours autoritaires (exemple : GPS).  En plus d’être vue comme serviables ou servile, la voix féminine est aussi perçue comme plus coopérante.

Dans le processus de création de ces assistants vocaux, des équipes créatives travaillent sur la personnalité de l’assistant vocal.  On lui assigne un caractère, des opinions, même une sensibilité et des goûts. L’objectif est d’humaniser la relation entre l’utilisateur et l’assistant vocal. La voix de l’assistante Google s’est vu attribuer une histoire de vie : une jeune fille du Colorado, fille d’une professeure de physique et d’un chercheur documentaliste, aimant le canoé kayak et diplômée d’histoire.

Au delà de la voix féminine, le caractère attribué a nos assistantes vocales est problématique. Leurs réponses sont souvent stéréotypées et projettent une image docile des femmes. Les réactions aux agressions verbales ou aux sollicitations sexuelles ont longtemps été passives ou visant à changer de sujet. Encore aujourd’hui, ces IA ne répondent quasiment jamais de façon négative mais par l’humour ou le flirt.  L’image renvoyée par ces personae et celle d’une femme hétérosexuelle, tolérant les avances ou parfois le harcèlement sexuel de la part des utilisateurs.

Les recherches sur internet via les assistants vocaux augmentent massivement depuis les 7 dernières années. Les chiffres et les projections montrent que l’on assiste à un changement de paradigme dans notre rapport aux objets numériques. Une requête écrite sur un moteur de recherche est souvent un mot clé, mais la même requête à un assistant vocal prend une forme conversationnelle. La relation humain-ordinateur devient de plus en plus « mains-libres » et vocale. 

La perpétuation des stéréotypes sexistes est nourrie par ces IA. Le rapport entre les humains et les assistants vocaux tend à devenir conversationnel, ces conversations participent à la socialisation de l’individu. Il est donc important de se questionner sur le rapport de possession et la déshumanisation des échanges avec ces assistants vocaux, sciemment anthropomorphisés.

En 2020, la CNIL publie ses premières recommandations et mises en garde pour lutter contre les biais discriminatoires dans les algorithmes. Le rapport de l’UNESCO intitulé « I’d blush if i could », publié en 2019, alerte sur les biais de genre reproduits dans les dispositifs technologiques et leurs impacts sur l’éducation.

Ces technologies reproduisent la vision du monde de ceux qui les fabriquent, pour citer Cathy O’Neil « Les processus reposant sur le Big Data n’inventent pas le futur, ils codifient le passé. »

Les inégalités entre les hommes et les femmes semblent trouver un prolongement et une amplification dans la sphère digitale. L’inscription des stéréotypes de genre dans la production des outils numériques est en partie responsable de la pérennisation des inégalités.

https://en.unesco.org/news/new-recommendations-improve-gender-equality-digital-professions-and-eliminate-stereotypes-ai

#IOT #Assistantsvocaux #Algorithmes #Data

 

Lina Bendifallah

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

Blog du Master Cnam Transition Digitale