Divers

Les assistantes vocales féminines renforcent les stéréotypes de genre néfastes, selon l'ONU

Les assistantes vocales féminines renforcent les stéréotypes de genre néfastes, selon l'ONU

La technologie d'assistant à commande vocale comme Siri et Alexa est le plus souvent programmée pour avoir une voix féminine. Mais maintenant, l'ONU a appelé les grandes entreprises technologiques à changer cela.

Dans un rapport intitulé "Je rougirais si je pouvais: réduire les fractures entre les sexes dans les compétences numériques grâce à l'éducation, "les Nations Unies demandent à des entreprises comme Google, Amazon, Apple et Microsoft de cesser de fabriquer des assistants numériques par défaut.

CONNEXES: ALEXA, CORTANA, SIRI? COMMENT CHOISIR UN ASSISTANT VOCAL SMART POUR VOTRE MAISON INTELLIGENTE

Ils disent que cela renforce les stéréotypes préjudiciables des femmes comme soumises et offre une opportunité de violence verbale sans conséquence.

Le rapport recommande que les voix soient sans sexe - ce que Google a tenté de faire en étiquetant ses voix en orange et en rouge plutôt qu'en homme ou en femme.

Les femmes ont besoin d'un meilleur accès aux compétences technologiques

Le rapport note également que les femmes ont 25% moins de chances d'avoir des compétences numériques de base que les hommes et demande aux entreprises technologiques puissantes de combler ce fossé. Vous n'avez pas besoin d'aller loin sur Internet pour trouver un exemple de personnes qui abusent d'un assistant à commande vocale comme Siri.

Bien que l'abus soit problématique, les réponses auxquelles les systèmes ont été conçus le sont également.

À un moment donné, appeler Siri une salope aurait reçu la réponse "Je rougirais si je pouvais." Bien que l'on pense que la réponse a maintenant été modifiée.

Le tableau du rapport ci-dessous montre les réponses à divers noms offensants dirigés vers quatre des principaux assistants vocaux.

Il est maintenant temps de changer

Les résultats parlent d'eux-mêmes qu'il faut des changements majeurs. C'est exactement le moment d'exiger des entreprises responsables de ces appareils, car ils sont de plus en plus enracinés dans nos vies.

Amazon créerait même un appareil capable de comprendre votre humeur. En utilisant la reconnaissance vocale, le dispositif de poignet portable peut apprendre comment votre voix change dans différentes circonstances émotionnelles et aller jusqu'à offrir des conseils sur la façon de gérer les situations sociales.

Les algorithmes d'intelligence artificielle ont déjà montré des préjugés raciaux et de genre, mais nous devons nous rappeler que ces systèmes ne sont pas neutres. Ces biais proviennent de la façon dont ils sont développés et des ensembles de données dont ils sont alimentés.

Voies STEM précoces

Comme beaucoup l'ont souligné, la meilleure façon de faire face à ce biais est d'avoir des équipes raciales et mixtes travaillant sur des projets. Pour y parvenir, les personnes d'horizons et d'expériences variés doivent bénéficier d'un accès et d'un parcours clairs dans les carrières dans les STEM.

Les stéréotypes #genres empêchent les filles de suivre les cursus #STEM. Les messages codés dans les programmes, les manuels et les médias peuvent renforcer les préjugés sexistes de longue date. # WomenInScience
➡ https://t.co/D9dr3e3okIpic.twitter.com/KPmFYjQnC4

- Rapport de l'ONU sur l'éducation (@GEMReport) 11 февруари 2019 г.


Voir la vidéo: Modes demplois. Évaluer, prévenir les risques de la vie quotidienne (Septembre 2021).