Alors que le combat pour la diversité est loin d’être gagné dans les entreprises et la société, un autre champ de bataille se fait jour : celui de la technologie, au sein des équipes de développement, des outils développés, et même des mondes virtuels que l’on crée aujourd’hui. Pour débattre de la nécessité de cette diversité et des moyens d’y arriver, nous avons donné la parole à Angeles Garcia-Poveda, présidente du conseil d’administration de Legrand et ancienne recruteuse chez Spencer Stuart, ainsi qu’à Laurence Devillers, chercheuse en informatique et sciences sociales.

Cet article est extrait de l’ouvrage Le Sens de la tech, publié le 26 mai 2023 chez Philosophie magazine éditeur. Retrouvez le sommaire et l’ensemble des articles extraits de cet ouvrage sur le site de Philonomist. Pour commander le livre, c’est par ici !

 

On aurait pu croire que l’intelligence artificielle (IA) serait rationnelle et objective, une forme de juge idéal qui ne se laisserait influencer par rien d’autre que les faits. Si la technologie nous offre une plus grande ouverture sur le monde, on remarque que certains outils reproduisent, voire amplifient, les discriminations déjà présentes dans la société. Car les algorithmes qui les guident restent le fruit d’humains qui, eux, sont porteurs de biais et de stéréotypes.

Comment combattre ces discriminations ? En s’attaquant aux a priori à la racine, par l’éducation, et en s’assurant que les métiers de la science et de la tech sont investis par des profils divers, de tous les genres, origines, profils sociaux, etc. Mais comment y arriver, si les outils de recrutement qui sont censés nous y aider sont eux-mêmes aussi biaisés que nous ? Comment faire contrepoids aux normes culturelles standardisées que véhiculent les technologies développées par les Gafam, dont nous avons besoin et que nous ne pouvons pas modifier ? Pouvons-nous compter sur la technologie pour arriver à une société plus inclusive ? Nous avons interrogé à ce sujet Angeles Garcia-Poveda, présidente du conseil d’administration de Legrand et ancienne chasseuse de têtes chez Spencer Stuart, et Laurence Devillers, professeure d’informatique appliquée aux sciences sociales et spécialiste des questions d’éthique en lien avec les machines.

 


 

Propos recueillis par Anne-Sophie Moreau.

 

Qu’est-ce que la diversité selon vous ? Est-ce que les avancées technologiques récentes la mettent à mal, ou au contraire la favorisent ?

Angeles Garcia-Poveda : Pour moi, la véritable diversité réside dans la diversité de pensée et de perspective, qui vient d’un alliage entre l’inné et l’acquis, et évolue tout le long de notre vie. Le milieu social dans lequel on grandit, notre culture, notre langue, nos préférences, notre genre, notre génération d’appartenance, notre environnement familial et professionnel nous façonnent malgré nous et conditionnent notre regard. Il n’est pas naturel de chercher la différence, on a plutôt tendance à aimer chez l’autre ce qui nous rassemble. D’où la nécessité d’avoir une pensée et une action conscientes sur le sujet.

Les avancées technologiques ont été utiles en matière de diversité. L’accès aux données a été une contribution très positive, car il a permis de mesurer et de comparer, et donc de poser des diagnostics et fixer des objectifs. L’accès à l’information a été facilité et a permis de confronter et d’enrichir des points de vue. Les technologies de communication ont permis à des équipes du monde entier de travailler en collaboration. Les plateformes digitales distribuent des contenus musicaux ou audiovisuels partout dans la planète, qui permettent l’accès du plus grand nombre à des œuvres autrefois cantonnées à un public de niche. Mais les technologies – et en particulier l’IA – sont conçues, développées, gérées par des groupes humains plus ou moins divers eux-mêmes. Au risque de reproduire les biais de leurs créateurs.

 

“Les systèmes d’apprentissage n’ont pas de préjugés naturels, mais ils sont nourris de nos données”

—Laurence Devillers

 

Laurence Devillers : La diversité de genre, d’âge, de culture apporte une richesse de points de vue utile à notre intelligence collective. Les avancées technologiques récentes améliorent l’accès aux savoirs pour tous, mais amplifient aussi les fake news et la manipulation de l’information. Il est important de comprendre que les êtres humains ont tous des biais en fonction de leur éducation, leur culture et leurs réactions émotionnelles à différents stimuli. À la différence des êtres humains, les systèmes d’apprentissage n’ont pas de préjugés naturels, mais ils sont nourris de nos données. Par conséquent, l’IA est à la merci de son entraîneur et de ses propres opinions, expériences et filtres personnels dans son choix des données et son optimisation du système. Utiliser des données pour reconnaître l’existence de ces préjugés inhérents et s’efforcer de les atténuer sont la première étape d’une intégration vraiment réussie de la diversité.

 

On accuse les algorithmes d’être misogynes. Pourquoi ?

L. D. : Les algorithmes ne sont pas misogynes, mais peuvent être discriminants. Prenons le cas de la reconnaissance vocale : si l’on n’entraîne l’algorithme qu’avec des voix d’hommes, il aura plus de mal à reconnaître une voix féminine. L’autre aspect est que 80 % des codeurs sont actuellement des hommes. Ils modélisent donc nos interactions sociales selon un modèle masculin. Les chatbots sont imprégnés de stéréotypes : ils ont en majorité un visage et une voix féminins – sauf lorsqu’ils ont une mission de sécurité ou une expertise noble, celle d’un chirurgien par exemple.

Dans votre voiture, on vous installe par défaut une voix féminine pour vous guider. Mais qui peut changer cette option ? Un banquier suédois questionné sur le choix par défaut m’a dit avoir fait des sondages au sujet de son chatbot auprès de ses clientes et clients, et que les deux préféraient une voix féminine.

A. G.-P. : Certaines plateformes offrent l’option de changer la voix installée par défaut, mais seul un faible pourcentage d’utilisateurs y a recours. Ce sont les stéréotypes qui sont ici à l’œuvre : les voix féminines ont probablement un côté rassurant, et renvoient une image d’une certaine docilité, de douceur, de sens du service, voire de servilité…

On retrouve aussi des biais dans certains algorithmes, liés à la subjectivité des données utilisées. En 2015, Amazon a arrêté d’utiliser une IA d’aide au recrutement car elle discriminait les CV des candidates du fait d’un data set [ensemble de données pouvant se présenter sous différents formats (textes, chiffres, images, vidéos, etc.), ndlr] d’apprentissage biaisé. Les suggestions d’achat d’un supermarché en ligne sont basées sur vos achats passés, et n’invitent en général qu’à reproduire des habitudes. Les propositions de poste reçues sur les plateformes digitales répondent à des critères mécaniques et non pas basés sur la compétence ou le potentiel. Il faut sans cesse se préoccuper de la neutralité.

 

“Ces algorithmes sont créés par quelqu’un qui a une vision du monde, des hypothèses tellement intégrées dans son ADN qu’il n’en est même plus conscient”

—Angeles Garcia-Poveda

 

L. D. : Au Japon, une entreprise vend l’hologramme d’une jolie jeune fille en socquettes et minijupe, qui vit avec vous et qui s’occupe de votre maison (elle allume la lumière, monte le chauffage). Un ersatz de fée du logis. Dans la publicité, elle devient omniprésente dans la vie du jeune homme qu’elle accompagne. On l’entend dire « mon chéri, comment vas-tu ? Reviens vite ce soir » à ce garçon, qui se dit « j’ai enfin quelqu’un à la maison pour moi » !

A. G.-P. : Ces algorithmes sont bien créés par quelqu’un. Or, ce quelqu’un a une vision du monde, des hypothèses tellement intégrées dans son ADN qu’il n’en est même plus conscient. Personne – homme ou femme – n’est totalement à l’abri des stéréotypes. Ces préjugés sont gravés dans la façon dont on a été élevé et exposé au monde, et ils conditionnent nos perceptions.

Dans ma vie de recruteuse, j’ai été assez vite consciente de ces sujets de diversité. Il y a des années, la firme pour laquelle je travaillais avait étudié les rapports de présentation des candidats remis aux clients. Nous avions extrait des rapports d’hommes et de femmes du monde entier qui postulaient à des postes de haut niveau, en interne ou en externe, et nous les avons fait passer sous les fourches caudines de logiciels d’analyse du langage. À votre avis, quels furent les résultats de cette étude ?

L. D. : J’imagine que les pourcentages de corrélation des mots étaient différents ? Lorsqu’on analyse des millions de textes sur le web, on voit que le monde masculin est plus souvent associé aux termes « puissance », « pouvoir », « argent », tandis que les termes les plus corrélés au monde féminin sont « soin », « ménage »…

Angeles Garcia-Poveda © Stéphanie Lacombe pour Philonomist.

 

A. G.-P. : L’étude montrait certains biais : les caractéristiques que l’on présentait comme des qualités positives de leadership chez les hommes étaient présentées parfois comme des défauts chez les femmes. Sur le sujet de l’autorité, par exemple, l’homme était décrit comme ayant une présence forte, une assurance qui inspirait confiance et une capacité à prendre des décisions. Chez les femmes, on retrouvait ces mêmes caractéristiques, mais plutôt dans les zones de développement : on disait qu’Unetelle avait une personnalité « clivante » ; on la décrivait moins souvent comme ayant de l’autorité ou de la gravitas, mais plutôt comme « autoritaire », etc. Nous nous sommes beaucoup questionnés en voyant les résultats de cette étude. On croyait bien faire en proposant systématiquement des profils féminins, et pourtant cela ne suffisait pas : il demeure quelque chose de subtil, de sous-jacent dont on a plus de mal à se débarrasser.

 

On se dit que l’IA est neutre, qu’elle n’a pas d’a priori. Comment se forment ses préjugés ?

L. D. : L’IA, ce sont des algorithmes qui apprennent à partir de nos données. La matière première, c’est nous, humains, qui la fournissons – avec tous nos côtés positifs et négatifs. Dans ces données, il y a nos vies, nos opinions, nos connaissances, nos stéréotypes, etc. Nos préjugés, c’est ce que nous apprenons pour survivre : quand nous regardons une scène, notre système neuronal vérifie qu’il n’y a pas de danger ; c’est ce qui nous permet de fuir très rapidement. La machine apprend des régularités qu’elle trouve dans nos données, mais pas de la même façon que nous. L’humain ne regarde pas une image comme le fait un ordinateur. Un médecin qui analyse une radio pour détecter un cancer regarde des zones particulières ; la machine, elle, regarde absolument tout. Son interprétation des régularités statistiques n’est pas la nôtre.

 

“On ne contrôle plus ce que regarde vraiment la machine”

—Laurence Devillers

 

Il y a trois types d’algorithmes d’apprentissage : ceux qui apprennent le modèle permettant de passer du signal à des annotations sémantiques données par les humains – apprentissage dit « supervisé », par exemple reconnaître une photo (signal visuel) de chat (annotation) ; ceux qui construisent ce modèle par ressemblance des formes – apprentissage dit « non supervisé » ; et ceux qui procèdent par essai-erreur – apprentissage par renforcement. Les modèles les plus performants sont les réseaux de neurones, qui fonctionnent selon le principe du deep learning, un apprentissage dit « supervisé » avec un grand nombre de couches cachées. Avec les premiers modèles, on pouvait vérifier la succession des règles appliquées ; aujourd’hui, on agrège énormément de données qu’on propulse dans un univers numérique pour représenter les formes. Résultat : on ne contrôle plus ce que regarde vraiment la machine. Mais on peut tout de même l’évaluer sur des données nouvelles aux frontières pour vérifier ce qu’elle a appris et ses limites.

A. G.-P. : J’ai lu que certains logiciels de reconnaissance faciale avaient plus de mal à reconnaître les femmes ou les personnes noires. Pourquoi ? C’est un problème technologique ou de taille de l’échantillon ?

L. D. : Les bases de données utilisées pour l’entraînement des systèmes devaient contenir peu ou pas suffisamment de personnes noires ou de femmes. On est là face à un problème de représentativité dans la conception, qui est le premier moteur de la discrimination.

 

Comment lutter contre ces discriminations involontaires ?

L. D. : Par les normes, les lois, la formation et l’éthique.

 

“La discrimination repose sur des millions de décisions et de perceptions individuelles, au quotidien”

—Angeles Garcia-Poveda

 

A. G.-P. : La prise de conscience est déjà le premier élément. Elle permet de jouer un rôle actif, d’exercer un contrôle sur notre façon de voir le monde, et de se demander si on n’est pas en train d’appliquer un biais conscient ou inconscient. Oui, il faut des normes, mais ça passe aussi par chacun d’entre nous. La discrimination repose sur des millions de décisions et de perceptions individuelles, au quotidien.

L. D. : Ça passe aussi par les entreprises. Les salariés peuvent jouer un rôle important, mais encore faut-il qu’ils soient écoutés. Google a licencié plusieurs femmes dont Timnit Gebru et Margaret Mitchell, parce qu’elles avaient dénoncé ce que je viens de vous expliquer.

 

L’IA est-elle utile dans le recrutement ?

A. G.-P. : Certainement. Je ne pense pas que l’on puisse déléguer la décision à une machine, mais elle peut aider à chaque étape : le sourcing [identification proactive des candidats, ndlr] et le traitement des candidatures, les tests de matching, la collecte de références… ; quand on me demande s’il est plus efficace de faire faire le premier tri d’une pile de CV par une machine ou bien par une personne qui se fatigue au bout de plusieurs heures et qui a ses propres biais, la question se pose. Dans une campagne de sourcing, la technologie permet de toucher un nombre beaucoup plus large et potentiellement plus divers de candidats potentiels. Aux États-Unis, plus de 80 % des entreprises ont recours à ces outils. Ce pourcentage est inférieur en France (autour d’un tiers). Utilisés à bon escient et avec suffisamment de discernement, ils ne remplacent pas l’humain mais permettent de consacrer plus de temps à la décision et moins à des tâches répétitives.

L. D. : J’ai travaillé précisément sur ce sujet du recrutement. Un système d’IA détectait des indices dans la voix qui permettaient de trier les candidats, en fonction de qualités vocales ou linguistiques (comme la diversité du vocabulaire, les hésitations, la personnalité…). Or les accents ou le cheveu sur la langue n’étaient pas pris en compte par le modèle. J’ai été parmi les gens qui ont décrié cette méthode, pourtant utilisée aux États-Unis, en Australie ou en France.

Laurence Devillers © Stéphanie Lacombe pour Philonomist.

 

En quoi les outils des Gafam imposent-ils des normes culturelles ?

L. D. : Ils ont une énorme puissance normative, et donc de manipulation. Le risque, c’est de créer un langage non humain qui va nourrir les futurs systèmes, comme c’est le cas avec ChatGPT actuellement. Il y a aussi tout un marketing de la génération émotionnelle qui est une véritable mascarade : des systèmes prétendent détecter vos états d’âme, comme s’il s’agissait de lire votre horoscope. Alors que les différences culturelles sont très fortes : il y a des pays où regarder dans les yeux est considéré comme un viol, d’autres où on ne se touche pas, d’autres où il est indécent de parler beaucoup… Les diversités culturelles autour des émotions sont évidentes entre le Nord et le Sud. Au Japon, par exemple, il existe un rire ambigu qui exprime à la fois l’accord et le désaccord. Nous devons avoir conscience des limites de la technologie, qui ne peut refléter ces finesses.

A. G.-P. : Je trouve qu’on ne se préoccupe pas assez de la diversité de pensée. C’est un paradoxe terrible : d’un côté, les réseaux sociaux nous offrent un balcon d’observation sur le monde absolument incroyable, qui nous permet de découvrir différentes disciplines, différents points de vue. Il est possible aujourd’hui de se former sur le web à des sujets aussi variés que le changement climatique, l’apprentissage d’un instrument, la réparation d’une machine. L’accès aux savoirs est beaucoup plus riche, démocratique et immédiat qu’il ne l’a jamais été. Mais je me demande si nous sommes vraiment plus libres, si nous ne sommes pas influencés en permanence par des courants de pensée. Si l’on clique sur un post sur Facebook ou sur Twitter, on est submergé de publications similaires dans les vingt-quatre heures qui suivent. Des boutons nous disent : « Cliquez ici si vous voulez recevoir d’autres publications similaires à celle-ci. » En d’autres termes, « cliquez ici si vous voulez renforcer l’idée que vous avez déjà plutôt que de vous ouvrir à d’autres perspectives » !

 

“Il faut rechercher la capacité à être en désaccord pour pouvoir s’enrichir”

—Angeles Garcia-Poveda

 

Comment faire pour sortir de sa propre bulle ?

A. G.-P. : Il faut se questionner sans cesse. Lorsque j’étais adolescente, mon père m’encourageait à lire au moins trois journaux de bords très différents. « Après, on pourra discuter de tout, mais pas avant », disait-il. Cela m’a marquée. Il faut rechercher la capacité à être en désaccord pour pouvoir s’enrichir. Mais le plus important, c’est de s’entourer de personnes différentes de vous, et qui ont non seulement le droit, mais aussi le devoir de se contredire. Je m’interroge toujours lorsque je vois des équipes de cultures très homogènes. Elles peuvent certes fonctionner en parfaite harmonie, mais ça manque de jazz ! Ce genre d’équipes n’arrive pas forcément aux meilleurs résultats pour les entreprises, ni pour les consommateurs, ni pour les parties prenantes ; il est très difficile d’arriver à la meilleure solution si l’on est tous d’accord, car on ne verra pas les failles ou les défauts de notre propre raisonnement. L’être humain grandit quand il est confronté à des crises, des conflits, des désaccords ; il progresse grâce à la contradiction et aux confrontations.

L. D. : Un autre point me terrifie : c’est le pouvoir qu’ont certains gouvernements de pousser une population entière à avoir telle ou telle opinion, comme la Russie qui exhorte son peuple à la guerre ou la Chine qui fait en sorte que ses citoyens soient positifs. Au Japon, j’ai découvert une entreprise qui disait développer des systèmes pour rendre les gens heureux. « Si on n’est pas malheureux, on ne peut pas être heureux », leur ai-je dit, ce qui les a choqués. Or si on lisse les émotions négatives, on perd la capacité à réfléchir, à douter, à s’indigner devant l’injustice, à faire des choix…

A. G.-P. : Il faut aussi apprendre et s’entraîner à se confronter. Confrontation n’est pas forcément synonyme de bataille : les philosophes grecs débattaient déjà dans l’agora, et progressaient dans leurs réflexions grâce à leurs désaccords. Je ne suis pas sûre qu’on ait su garder cette culture du débat. On passe directement de la pensée unique à la dissidence ou au conflit, avec peu de nuance. Et la diversité de pensée n’est pas forcément encouragée par le système, parce que les minorités ont une voix qui porte moins tant qu’elles n’ont pas atteint une certaine taille critique.

L. D. : La démocratie sur le modèle grec permet le débat. Il faut élaborer la solution, pas simplement l’amener. Or les machines ne nous aident pas à cela. En modélisant sur la machine, on standardise ; on perd les points de vue étayés, les raisonnements qui vont avec les opinions. Cela met en danger la démocratie.

A. G.-P. : Je ne suis pas fataliste. On réussit quand même à faire des choses incroyables avec les machines. En entreprise, on utilise tous les jours des données qui viennent de la technologie pour la prise de décision. Si l’on trouve les bons indicateurs et que l’on s’assure de la qualité de la matière première que l’on analyse, on peut mesurer le progrès sur ce qu’on veut voir changer, comme la diversité, ou l’impact carbone par exemple. On a des ratios que l’on mesure en permanence, et on s’engage sur des objectifs précis. La data est très utile, à condition de l’utiliser avec discernement et sens.

 

Peut-on penser une technologie qui inclut l’ensemble de la société au lieu d’enfoncer les plus vulnérables ?

L. D. : La première chose que je voulais faire avec la technologie d’assistance robotique, c’était aider les personnes dans le grand âge. Il y a énormément de progrès à faire pour accompagner les malades d’Alzheimer, la perte de capacités cognitives et du langage ; on peut créer des assistants conversationnels robotiques pour les gens qui restent chez eux plus longtemps, dans leur environnement familier. Ce ne serait pas éthique de ne pas utiliser ces technologies pour aider les personnes dépendantes, mais pas à n’importe quel prix !

A. G.-P. : L’enjeu de l’inclusion technologique est crucial. N’exclut-on pas les personnes âgées ? J’ai un père de plus de 80 ans qui est à l’aise avec la technologie, mais c’est parce qu’il s’y est intéressé, et qu’il y a été formé. Aujourd’hui, dans une agence bancaire, on rencontre des personnes âgées qui ont du mal à gérer leur compte à travers une application, et viennent rechercher un accompagnement. Si on ne fait pas un effort conscient, une partie importante de la population peut se retrouver sur le bas-côté. À cet enjeu d’inclusion lié au besoin de formation et d’accompagnement vient s’ajouter un autre enjeu lié au coût de certaines technologies. J’ai une expérience personnelle avec le monde du handicap. La technologie a été d’une aide incroyable pour ma fille qui n’a pas de langage oral. Il existe des logiciels permettant l’accès au langage ou d’effectuer des recherches sur le web pour des personnes porteuses de lourds handicaps physiques et mentaux qui ont véritablement transformé – en bien – leur qualité de vie. Reste le problème du coût : 90 % des familles qui accueillent des handicapés en leur sein sont incapables de se procurer un tel outil. Le marché est trop étroit pour intéresser les fabricants, et il y a très peu de concurrence : les investissements et les ressources vont vers des projets plus rémunérateurs.

 

“Les industriels proposent des plateformes et des applications sans étude des impacts qu’elles peuvent avoir sur notre vie sociale et physiologique”

—Laurence Devillers

 

Quid de la diversité dans le métavers ? On parle déjà des problèmes de discriminations, voire de viols, dans les espaces de réalité virtuelle…

L. D. : Les mondes virtuels existent déjà dans les jeux vidéo, même si ce ne sont pas encore des métavers. L’inclusion ne s’y fait pas si facilement. Pour commencer, il faut pouvoir acheter un casque, des gants haptiques pour avoir des expériences sensorielles dans ces univers. Les industriels proposent des plateformes et des applications sans étude des impacts qu’elles peuvent avoir sur notre vie sociale et physiologique, c’est-à-dire sur la manière dont nos sens vont réagir et sans doute changer dans ces univers. Comment allons-nous vivre ces deux réalités ? Une dans la vie de tous les jours et une dans cet univers virtuel. Des pathologies vont se développer, comme l’addiction aux machines… Les psychiatres vont avoir du boulot ! Les statistiques montrent déjà que les jeunes passent trop de temps sur les écrans, ce qui a un effet négatif sur les performances à l’école. Il faut réguler tout cela, pas forcément comme le font les Chinois, qui ont décrété que les enfants ne devaient pas jouer plus de deux heures par semaine sur écran, mais avec des mesures, des quantifications des usages et des préventions à l’école. Les machines interagissent avec nous, et nous nous adaptons aux machines. Je travaille beaucoup sur ces problèmes de coévolution entre les humains et les machines. Le défi, c’est d’éviter les déviances à long terme.

A. G.-P. : Le réel virtuel est un sujet qui m’interpelle. Comment va-t-il affecter notre capacité à vivre une vie réelle, dans l’instant présent et en présence de l’autre ? Imaginez que l’on puisse s’inventer un personnage, une vie totalement fictive… Le sujet de la consommation dans le métavers me questionne également.

Les jumeaux numériques, en revanche, offrent un monde de possibilités pour la science et la R&D, et permettent sans doute de faire des avancées importantes en minimisant le coût et les risques. Il existe des jumeaux numériques d’usines, de bâtiments tertiaires, d’un patient, celui de l’océan est prévu pour 2024. Les possibilités sont infinies.

L. D. : Cela pose des problèmes dans les deux sens. On connaît les déviances qu’entraînent les écrans, mais on ne sait pas ce qu’est le monde immersif. On n’a par exemple absolument pas anticipé la vulnérabilité émotionnelle à laquelle nous serons soumis dans le métavers. Récemment, j’ai été invitée à des conférences sur l’immortalité numérique. Les perspectives sont terrifiantes : on vous propose de rencontrer votre père décédé dans le métavers, par exemple. On crée déjà des deadbots, c’est-à-dire des chatbots pouvant parler avec la voix de quelqu’un de décédé – et dire des mots que la personne n’aurait jamais dits –, une nouvelle forme d’usurpation d’identité. Il y a un petit film sur YouTube qui montre une maman coréenne à qui l’on fait rencontrer une version virtuelle de sa petite fille décédée. En voyant cette femme qui tend les bras et n’arrive pas à toucher l’avatar de sa fille, on découvre la souffrance que peut provoquer la technologie. Comment faire son deuil tout en écoutant la voix d’une personne décédée devenue omniprésente ?

 

Pourquoi les femmes sont-elles si absentes de la tech ?

A. G.-P. : Ça commence très tôt, dès le plus jeune âge. Le premier facteur excluant, ce sont les femmes elles-mêmes, parce qu’elles choisissent moins les filières scientifiques que les hommes. J’ai grandi dans une famille d’ingénieurs et je n’ai pourtant pas choisi cette filière, lui préférant une école de commerce. Pourquoi ? Aujourd’hui, je travaille dans une société industrielle et j’ai découvert avec bonheur le monde des usines. Je n’ai pas de regrets, mais je pense que je ne me suis pas vraiment posé assez de questions à l’époque de mes choix.

Dès le collège, ces sujets devraient être proactivement abordés. Proposer des stages scientifiques et ouvriers de découverte à tous les élèves pourrait par exemple aider. Cela passerait aussi par le renforcement de l’enseignement des mathématiques et des sciences, et par une communication ciblée.

L. D. : On manque de femmes en IA ! Quand j’étais enfant, j’avais un jeu qui illustrait le fonctionnement d’un ordinateur. Sur la couverture du jeu, il y avait un papa en costume-cravate et son petit garçon qui faisaient de la logique et de l’électronique pour comprendre les composants internes d’un processeur. Il était rare qu’on offre ce type de jeu à une petite fille : dans les classes de maternelle, on rangeait d’un côté les jeux roses et de l’autre les bleus. L’univers de l’informatique et des sciences est toujours très genré. Je trouve qu’on n’explique pas assez tout le potentiel sociotechnique, de soin et de créativité de l’IA pour attirer les filles. La fondation Blaise-Pascal, que je préside, s’adresse aux parents et aux grands-parents pour pousser les filles à aller dans les sciences informatiques et les mathématiques.

A. G.-P. : Il faut de la communication, de la pédagogie pour attirer les jeunes filles dans ces métiers, et aussi des modèles. Est-ce qu’il y a assez de femmes membres des jurys dans les concours d’entrée aux écoles d’ingénieurs ? Assez de roles models pour les accompagner dans le choix des filières ? Assez de dirigeantes dans le secteur industriel ? Assez de femmes professeures en sciences ?

 

“Nous avons, en tant qu’êtres humains, besoin de la perspective de l’autre pour nous forger”

—Angeles Garcia-Poveda

 

L. D. : Peu. Et dans les écoles en informatique, on les met en garde en leur disant : « Attention, il y a très peu de filles. » C’est d’ailleurs contre-productif. La diversité fait notre force, qu’il s’agisse du genre, des origines ou de la position sociale. On a énormément à gagner. J’aime bien l’image de la résistance aux virus : si on veut leur résister, on a intérêt à se mélanger ! Il faut améliorer notre discours pédagogique dès la petite enfance à l’école.

A. G.-P. : Je crois fondamentalement que la diversité et la performance, mais aussi l’adversité et le bien-être sont très liés. Nous avons, en tant qu’êtres humains, besoin de la perspective de l’autre pour nous forger. C’est en ce sens que je recherche la diversité. Je suis exposée au handicap au sein de ma propre famille, j’ai donc vécu plusieurs formes de différences et je pense que c’est une vraie richesse. Et j’ai moi-même souvent été l’élément divers dans les milieux où j’évoluais, en termes de genre, mais aussi de formation, de nationalité, de génération… Aujourd’hui, les STEM [science, technologie, ingénierie, mathématiques, ndlr] sont en train de se priver de talents extraordinaires. Et les discussions autour de l’éthique, du sens et de l’application de ces technologies ne peuvent en aucun cas se tenir sans que les femmes ne participent.

L. D. : L’apprentissage des algorithmes et de la réflexion éthique autour de ces technologies à l’école devrait stimuler les désirs de carrière pour les filles et les garçons dans ces domaines créatifs et bien rémunérés. Donnons-nous les moyens de nos ambitions, peut-être faut-il décider de quotas pour arriver à une parité !

A. G.-P. : Les quotas ont très bien fonctionné dans les conseils d’administration. Il y a dix ans, on nous disait qu’il n’y avait pas de femmes capables d’être administratrices. Aujourd’hui, on y est arrivé, et cette diversité de genre a été un vecteur formidable de diversités au pluriel : nationalités, générations, compétences. Les instances dirigeantes exécutives sont la prochaine frontière.

 

Diriez-vous la même chose des quotas ethniques, interdits en France mais qui s’appliquent aux États-Unis ?

L. D. : On ne peut pas comparer les quotas ethniques aux quotas de femmes : nous sommes tout de même 50 % de la population, toutes origines ethniques confondues !

A. G.-P. : Il est très réducteur (et par ailleurs illégal en France) de demander aux personnes de se « qualifier » ethniquement dans un questionnaire. Le courant du communautarisme imagine qu’il faut des représentants de chaque religion ou groupe ethnique pour qu’ils puissent « représenter leurs intérêts ». Ce n’est pas ma vision de la diversité, ni de la valeur de l’intelligence collective. La participation des femmes à la vie sociale et économique n’est pas une question de représentativité. Je suis en faveur des diversités au pluriel, et de créer des organisations suffisamment inclusives pour que chacun se sente libre d’être comme il est.

 

“Il faut garder en tête nos mythes fondateurs et stéréotypes culturels et travailler à améliorer notre compréhension de tous ces biais”

—Laurence Devillers

 

On dit que face à la robotisation des métiers techniques, les soft skills reprennent de l’importance. Est-ce l’occasion pour les femmes de prendre leur revanche dans le monde professionnel ?

A. G.-P. : Je préfère parler de progrès que de revanche. Et les soft skills concernent tout le monde, pas que les femmes ! Il est assez utile d’avoir un minimum d’empathie envers l’autre et de capacité de communication pour animer les équipes, ne serait-ce que pour pouvoir négocier, motiver, inspirer et atteindre vos objectifs. Certains de ces attributs sont peut-être considérés comme féminins. Mais il ne faut pas pousser les stéréotypes à l’extrême. Pour moi, ce sont plutôt des attributs d’un leader moderne, homme ou femme.

L. D. : Si on caricature, effectivement, le fantasme de la création d’un clone robotique de l’humain serait très masculin, comme le montre la mythologie grecque, et les femmes n’en auraient pas besoin, parce qu’elles portent déjà la vie ! Il faut garder en tête nos mythes fondateurs et stéréotypes culturels et travailler à améliorer notre compréhension de tous ces biais. Nous ne changerons pas tout, mais nous pouvons améliorer l’équilibre nécessaire pour construire le monde de demain en intelligence collective, masculine et féminine.

 

Quelles sont les qualités d’un dirigeant dans un monde où tout semble calculable et optimisable ?

A. G.-P. : Il lui faut des capacités d’adaptation et d’apprentissage, ce qui implique une certaine curiosité, une humilité et la capacité de se remettre en question. Mais aussi du courage pour pouvoir prendre des décisions avec énormément de données mais peu de certitudes, ainsi que de l’empathie et de la générosité. Enfin, il lui faut la capacité à collaborer – avec son équipe, mais aussi avec l’écosystème ouvert qui gravite autour de son entreprise : fournisseurs, clients, concurrents, pouvoirs publics…

L. D. : Je suis tout à fait d’accord avec vous… et la capacité d’aller à l’essentiel !

 

Photo © Stéphanie Lacombe pour Philonomist.
Propos recueillis par : Anne-Sophie Moreau
05/07/2023 (Mis à jour le 25/07/2023)