Skip to content

Usages des données et algorithmes enfin l’heure du débat public

 

Jusqu’à récemment, parler de biais des algorithmes n’allait pas de soi : « comment, alors que les algorithmes se nourrissent de données, supposées « neutres », pouvaient-ils produire des résultats biaisés ? Depuis quelques années, les excellents travaux de quelques chercheurs (notamment ceux de Kate Crawford) ainsi que les solides dossiers et articles de journalistes spécialisés (voir ceux d’Hubert Guillaud dans Internet Actu) ont contribué à bousculer cette croyance. La réalité est en effet toute autre : les données que nous utilisons pour nourrir les algorithmes sont produites par des humains dans des contextes donnés. Elles embarquent au sein de ces algo tous nos biais en les exacerbant  : le social est partout même dans l’IA et il semble que la société commence enfin à en prendre conscience.



Fin du mythe de la neutralité de l’IA ?

Le récent écho donné dans la presse au refus de Luke Stark (chercheur sur les aspects sociaux, émotionnels et éthiques des technologies numériques) de percevoir une bourse de Google pour ses travaux en intelligence artificielle semble l’attester. Ces remous font suite au licenciement par le géant de la recherche en ligne de la chercheuse Timnit Gebru jusqu’alors responsable de son département Éthique et IA. Le fait que les médias relaient la controverse qui agite le milieu des chercheurs en intelligence artificielle sur l’éthique des algorithmes qu’ils développent semblerait indiquer que nous commençons à sortir de la naïveté.


Autre signe : la diffusion par Netflix de Coded Bias, un documentaire de Shalini Kantayya (2020) qui met en lumière l’étude sur les Gender Shades menée par las chercheuse du MIT Joy Buolamwini (avec T. Gebru) sur les algorithmes de reconnaissance faciale qui se révèlent beaucoup moins efficaces à identifier les personnes de couleur que les personnes blanches.

 

 


Ce que révèle notamment leur étude Gender Shades, c’est que les femmes noires en particulier ont 35 % moins de chances d’être reconnues par les algo que des hommes blancs. Le travail de ces pionnières est venue éclairer la nécessité de transparence des algorithmes et le fait que les biais ne se cachent pas seulement dans les jeux de données qui servent à entraîner les modèles de machine learning mais aussi dans les catégories mentales des data scientistes très majoritairement blancs et masculins.


Comment gérer nos biais ?

Comment connaitre nos biais, c’est ce questionnement que nous essayons de porter auprès des jeunes professionnels de la formation Data+8 du Campus Numérique dans les sessions animées par la Turbine sur les enjeux éthiques de la gouvernance des données.

 


 


Il s’agit de sensibiliser ces futurs data scientistes aux risques d’accentuation des inégalités existantes par les biais algorithmiques. Ce qui suscite des questions sur la responsabilité du professionnel versus celle de l’entreprise qui l’emploie, sur les modalités concrètes de la transparence des algorithmes lorsqu’ils tombent sous le coup de la propriété intellectuelle, ou encore sur les enjeux techniques de l’anonymisation des données personnelles.

Le débat est lancé, on ne peut que s’en réjouir !
A nous de faire évoluer nos pratiques.


Aller au contenu principal