Divers

Les voitures autonomes ne peuvent pas reconnaître les piétons avec des tons de peau plus foncés

Les voitures autonomes ne peuvent pas reconnaître les piétons avec des tons de peau plus foncés

Un nouveau rapport montre que les systèmes conçus pour aider les voitures autonomes à reconnaître les piétons peuvent avoir du mal à reconnaître les personnes à la peau plus foncée. La recherche inquiétante a été téléchargée sur le serveur de pré-impression arxiv.

VOIR AUSSI: LES BIAS DANS L'INTELLIGENCE ARTIFICIELLE NÉCESSITENT DISCIPLINE ET COMPASSION

Il existait déjà des preuves que certains logiciels de reconnaissance faciale avaient du mal à fonctionner avec des tons de peau plus foncés. Mais les résultats de l'étude sur les voitures autonomes ont un résultat potentiellement mortel.

Meilleur biais de spectacle au monde

Des chercheurs de Georgia Tech ont étudié huit modèles d'IA utilisés dans des systèmes de détection d'objets de pointe pour terminer leur étude. Ces systèmes permettent aux véhicules autonomes de reconnaître les panneaux de signalisation, les piétons et autres objets lorsqu'ils naviguent sur les routes.

Ils ont testé ces systèmes en utilisant deux catégories différentes basées sur l'échelle de Fitzpatrick. Une échelle couramment utilisée pour classer la couleur de la peau humaine.

Peau plus foncée à risque plus élevé

Dans l'ensemble, la précision du système a diminué de 5% lorsqu'il a été présenté avec des groupes d'images de piétons avec des tons de peau plus foncés. Et selon l'article publié, les modèles ont montré «des performances uniformément moins bonnes» lorsqu'ils sont confrontés à des piétons aux trois teintes les plus sombres de l'échelle.

Ces résultats viennent après que le résultat a été ajusté pour tenir compte du fait que la photo a été prise de jour ou de nuit. En résumé, le rapport suggère que les personnes à la peau plus foncée seront moins en sécurité à proximité des routes dominées par des véhicules autonomes que celles à la peau plus claire.

L'élimination des biais commence par la diversité de la recherche

Le rapport donne heureusement un bref aperçu de la manière de remédier à cette réalité insondable. Cela commence par simplement augmenter le nombre d'images de piétons à la peau sombre dans les ensembles de données utilisés pour entraîner les systèmes.

Les ingénieurs responsables du développement de ces systèmes doivent mettre davantage l'accent sur la formation des systèmes avec une plus grande précision pour ce groupe.

Le rapport, qui, selon les auteurs, espère fournir des preuves suffisamment convaincantes pour résoudre ce problème critique avant de déployer ces systèmes de reconnaissance dans le monde, est un autre rappel du manque général de diversité dans le monde de l'IA.

Malheureusement, ce n'est pas le premier rapport de racisme potentiellement mortel dans les systèmes alimentés par l'IA. En mai de l'année dernière, ProPublica a signalé que le logiciel utilisé pour aider les juges à déterminer le risque qu'un auteur présentait de recommencer un crime était biaisé contre les Noirs.

Le profilage racial est mortel

Le système est utilisé par les juges dans le cadre de la détermination des peines criminelles, il fournit un score basé sur la probabilité que la personne récidive. Un score élevé suggère qu'ils récidiveront, un score faible suggère que c'est moins probable.

Les journalistes d'investigation ont évalué le score de risque attribué à plus de 7000 personnes dans le comté de Broward en Floride en 2013 et 2014, puis ont regardé pour voir si les mêmes personnes étaient accusées de nouveaux crimes au cours des deux prochaines années.

L'algorithme s'est non seulement avéré peu fiable, mais seulement 20% des personnes prédites commettre des crimes violents l'ont fait. C'était aussi un parti pris raciste.

Les accusés noirs étaient plus susceptibles d'être signalés comme de futurs criminels, les étiquetant à tort presque deux fois plus que les accusés blancs. Alors que les accusés blancs ont été étiquetés à tort comme un risque faible plus souvent que les accusés noirs.

La communauté du développement de l'IA doit se rassembler et prendre publiquement position contre ce type de préjugé extrêmement dommageable.


Voir la vidéo: CES 12 ERREURS, VOUS COUTERONS LE PERMIS! (Octobre 2021).