Twitter supprime son algorithme de recadrage de photos qui préfère les Blancs et les femmes

Une nouvelle analyse publiée par Twitter a confirmé que l’algorithme de recadrage automatique de photos de la société discrimine sur la base de l’appartenance ethnique et du sexe. S’il était présenté avec une image représentant un homme noir et une femme blanche, l’algorithme choisirait de montrer la femme à 64%. du temps et de l’homme 36% du temps, Les chercheurs de Twitter Dans les comparaisons entre les hommes et les femmes, il y avait une différence de 8% en faveur des femmes. L’algorithme a également montré un biais global de 4% en faveur de l’affichage d’images de personnes blanches au lieu de personnes noires.En réponse, le réseau social a déclaré qu’il supprimerait la fonctionnalité, la remplaçant par de nouveaux outils permettant aux utilisateurs de voir un « véritable aperçu ». « Une de nos conclusions est que tout sur Twitter n’est pas un bon candidat pour un algorithme, et dans ce cas, comment recadrer une image est une décision mieux prise par les gens », « Le directeur du génie logiciel de Twitter, Rumman Chowdhury a écrit dans un blog annonçant les résultats. Un test similaire pour le « regard masculin », qui visait à découvrir si l’algorithme avait tendance à se concentrer sur différentes parties des corps masculins et féminins, n’a trouvé aucune preuve de partialité. comme la reconnaissance faciale, les conséquences d’algorithmes biaisés pourraient aller bien au-delà d’une photo injustement recadrée, selon Nicholas Kayser-Bril de l’ONG Algorithmwatch basée à Berlin. e avec des tons de peau plus foncés comme plus violents et plus proches des animaux, s’appuyant sur de vieux tropes racistes. Ceci est très susceptible d’avoir un effet direct sur les personnes racialisées lorsque de tels systèmes sont utilisés pour détecter des situations anormales ou dangereuses, comme c’est déjà le cas dans de nombreux endroits en Europe « , a-t-il déclaré à Euronew. Comment l’algorithme de Twitter fonctionne-t-il? Jusqu’à récemment, des images postés sur Twitter ont été recadrés automatiquement par un algorithme conçu pour se concentrer sur la «saillance» – une mesure de la probabilité que l’œil humain soit attiré par une partie particulière d’une image. Les zones à forte saillance d’une image comprennent généralement des personnes, du texte, Cependant, un algorithme d’apprentissage automatique (ML) comme celui utilisé par Twitter n’est aussi impartial que les informations avec lesquelles il est entraîné, a expliqué Kayser-Bril. « Si un algorithme d’apprentissage automatique est entraîné sur un ensemble de données qui ne contient pas de données sur certains groupes ou certains attributs, cela produira des résultats biaisés », a-t-il déclaré à Euronews.« Construire un ensemble de données équitable est impossible s’il doit s’appliquer à une société qui n’est pas équitable en premier lieu . Par conséquent, ce pour quoi un modèle optimise est plus important que l’ensemble de données avec lequel il a été formé. « Les communautés d’intelligence artificielle utilisent des repères pour leurs algorithmes; ils sont très rarement liés à l’équité ». Le rapport sur l’inclusion et la diversité de Twitter 2021 a montré que ses employés dans le monde entier étaient 55,5% d’hommes, 43,6% de femmes et moins de 1% de non binaires Les chiffres des employés de Twitter aux États-Unis – le seul territoire pour lequel l’entreprise publie des statistiques sur l’appartenance ethnique – montrent que 7,8% de ses employés sont noirs, tombant à 6,2 pour cent lorsque seuls les employés travaillant dans des rôles techniques sont pris en compte.Le problème avec l’algorithme de recadrage de Twitter a attiré une large attention l’année dernière, lorsque le doctorant canadien Colin Madland a remarqué qu’il choisirait systématiquement de le montrer plutôt qu’à son collègue – un homme noir – lorsque présenté avec des photos des deux hommes.Le tweet de Madland sur la découverte est devenu viral, incitant d’autres utilisateurs à publier de très longues images fea À l’époque, la porte-parole de Twitter, Liz Kelley, a déclaré que la société avait «testé les préjugés avant d’envoyer le modèle et n’avait pas trouvé de preuve de préjugé racial ou sexiste dans nos tests. », ajoutant qu’il était clair que Twitter avait« plus d’analyses à faire ».

Traduit de : https://www.euronews.com/2021/05/20/twitter-is-removing-its-photo-crop-algorithm-that-prefers-white-people-and-women