Le réseau social américain Twitter affiché une discrimination raciale sur l’écran d’un smartphone et d’une tablette.

Twitter a établi que son algorithme qui recadre les photos est légèrement biaisé en faveur des personnes blanches et des femmes, et préfère désormais se passer de cette technologie automatisée.

Twitter abandonne un algorithme biaisé contre les femmes noires

« Les algorithmes ne conviennent pas à tout ce qui est sur Twitter », note le réseau social sur l’un de ses blogs mercredi.

« Il vaut mieux que les utilisateurs décident de comment cadrer une image ».

La plateforme, qui a lancé des travaux pour rendre ses systèmes d’intelligence artificielle plus éthiques, a enquêté sur les biais perçus par les utilisateurs.

L’algorithme, mis en service en 2018, est conçu pour recadrer les images en fonction de ce qu’il considère comme prépondérant, afin de réduire leur taille et de moins encombrer le fil de tweets.

« Des gens sur Twitter ont observé des cas où notre programme a choisi des individus blancs plutôt que noirs », explique Rumman Chowdhury, directrice du logiciel.

« Nous avons testé notre système sur une large base de données pour déterminer s’il y avait un problème ».

Une différence de 4%, de 7% par opposition aux femmes noires

Les chercheurs du groupe ont trouvé qu’il y avait une différence de 4% en faveur des personnes blanches en général, et de 7% en faveur des femmes blanches par opposition aux femmes noires.

La comparaison entre les hommes et les femmes en général a révélé un écart de 8% en faveur des femmes.

3% des photos testées

La société basée à San Francisco a aussi cherché un possible biais dit de « regard masculin », au sens où l’algorithme choisirait la poitrine ou les jambes d’une femme au lieu de son visage.

L'appel du football sur les réseaux sociaux a été rejeté car Twitter et Facebook ont ​​rejeté les demandes de messages abusifs à `` filtrer et bloquer avant d'être publiés ''
L’appel du football sur les réseaux sociaux a été rejeté car Twitter et Facebook ont ​​rejeté les demandes de messages abusifs à «  filtrer et bloquer avant d’être publiés  »

Mais seulement 3% des photos testées ont été recadrées en-dehors de la tête des personnes, et sur des éléments non physiques, comme un chiffre sur un maillot sportif.

« Nous n’avons pas trouvé de preuves d’un biais d’objectification », souligne Rumman Chowdhury.

Le réseau social a testé en mars une nouvelle façon d’afficher les images sans les recadrer, et a ensuite étendu l’outil à tous, pour permettre à chacun de voir à quoi ressemble son tweet avant de le publier.

A lire aussi

« Cela réduit notre dépendance à l’apprentissage automatisé du logiciel pour une tâche que nos utilisateurs sont mieux à même de réaliser », a-t-elle ajouté.

Les grandes plateformes sont régulièrement accusées de favoriser des pratiques répréhensibles, de l’incitation à la haine à diverses discriminations, notamment sexistes ou racistes.

LEAVE A REPLY

Please enter your comment!
Please enter your name here