La technologie est-elle éthiquement neutre ?

La technologie est-elle éthiquement neutre ?

Dans le vaste champ de l’intelligence artificielle, la reconnaissance faciale fait partie des technologies qui progressent le plus rapidement. Cette technologie est-elle neutre ou soulève-t-elle des questions éthiques ?

A quoi sert la reconnaissance faciale ?

Les logiciels de reconnaissance faciale permettent de reconnaître une personne depuis une image ou une vidéo. Dans notre quotidien par exemple, cela permet de reconnaître qui se trouve sur une photo sur Facebook, de déverrouiller son iPhone ou encore de se connecter à son compte sur sa PlayStation 4. Pour les Etats, cela permet aussi de surveiller des personnes spécifiques, aussi bien des terroristes que des opposants politiques. Cela permet également de catégoriser des personnes par groupe selon leurs caractéristiques. Dans un centre commercial par exemple, un logiciel pourrait analyser les vidéos des caméras de surveillance et identifier que 70% des clients sont des femmes entre 30 et 40 ans. La reconnaissance faciale permet également de chercher une personne parmi d’autres : identifier un dissident politique dans une foule, reconnaître un terroriste à une frontière ou encore retrouver sur un réseau social une personne prise en photo à son insu dans la rue.

Qui est concerné par le profilage ?

Il est intéressant de noter que, dans le passé, la reconnaissance faciale a été décriée parce qu’elle était justement peu performante quand elle concernait des minorités, qu’elles soient ethniques ou de genre. Il y a notamment eu un scandale lors d’un test réalisé avec un logiciel de reconnaissance faciale qui a associé des membres du Congrès américain d’origine afro-américaine à des clichés de criminels. Tant que ces erreurs d’analyse perdurent, les personnes issues de minorités, comme par exemple les femmes afro-américaines, sont moins bien reconnues par ces logiciels. C’est pourquoi les ingénieurs du monde entier planchent assidûment sur ces biais ethniques pour les corriger.

A l’inverse, un professeur de Stanford, Michal Kosinski, par ailleurs impliqué dans le scandale de Cambridge Analytica, a publié un article scientifique affirmant avoir conçu une intelligence artificielle capable de déterminer si une personne est homosexuelle à partir d’une photo. Les contestations sur les biais initiaux de sa recherche et la rigueur scientifique de son travail sont nombreuses et vives. Mais au-delà de la véracité de ses affirmations, ce qui inquiète le plus est le risque encouru par les personnes gays vivant dans des États qui utiliseraient ce type d’outil alors qu’ils pénalisent les orientations sexuelles jugées hors de la norme acceptable par de la prison, de la torture, la peine de mort ou des travaux forcés.

De même, les personnes dissidentes dans des régimes totalitaires sont en danger à partir du moment où la reconnaissance faciale permet de les identifier grâce aux vidéos de télésurveillance filmant une manifestation à l’encontre du gouvernement.

Il en est de même concernant les origines ethniques. Quand on sait qu’il existe des pays où des populations sont opprimées en raison dans leurs origines, il est préoccupant que des logiciels les identifient ou du moins prétendent y parvenir. Que des logiciels tentent de catégoriser les individus selon leur origine ethnique questionne d’ailleurs sur le fait de l’appréhender de manière neutre, en tant que caractéristique physique comme les autres, au même niveau que le fait de porter ou non des lunettes.

La technologie est-elle éthiquement neutre ?

Pour beaucoup, la technique serait neutre. Par exemple, un couteau pourrait être utilisé pour couper une orange ou pour tuer une personne. Le couteau serait donc un instrument neutre.

Pourtant, on peut difficilement imaginer des fins positives au profilage ethnique. Il y a bien quelques cas qui peuvent être évoqués mais l’Histoire ne nous dit rien de bon sur ce type d’activité : on peut penser aux juifs et aux tziganes pendant la seconde guerre mondiale, ou encore aux Hutus et aux Tutsis pendant le génocide du Rwanda. Les régimes alors en cours se sont appuyés sur des critères pseudo-scientifiques racistes pour “dépister” des minorités. Un des aspects préoccupants de l’utilisation de tels outils est qu’ils délégueraient à un outil supposé infaillible, parce que scientifique, la responsabilité d’identifier l’origine ethnique d’une personne. Le paradigme de l’obéissance de Milgram laisse penser que, si l’autorité de l’outil est perçue comme incontestable, les utilisateurs s’y soumettront sans esprit critique. On pourrait par exemple imaginer que la police des frontières délègue à un logiciel le choix des entrées sur son territoire.

Dans le cas de la “reconnaissance faciale ethnique” par exemple, on peut légitimement s’inquiéter. En premier lieu, il est essentiel de se demander si ce type d’outil est performant et ne verse pas plutôt dans la morphopsychologie, pseudo-science du mouvement de racisme scientifique apprécié par les nazis. En second lieu, certains pensent que, pour se garder des dangers liés à la technique, il faudrait s’assurer que la rationalité instrumentale, centrée sur l’adaptation des moyens aux fins, reste subordonnée à la rationalité éthique, qui interroge les fins en elles-mêmes. Cela amènerait à affirmer que ce n’est pas parce que l’on est en mesure de réaliser certaines prouesses techniques qu’il est éthique ou moral de les faire.

Faut-il s’inquiéter de l’usage grandissant de la reconnaissance faciale ?

Beaucoup pensent : “si je n’ai rien à me reprocher, je n’ai rien à craindre”. La surveillance de masse permet de trouver des criminels qui n’auraient peut-être pas été trouvés autrement. Cela peut donc sembler plutôt rassurant. D’un autre côté, ce n’est pas parce que je n’ai rien à me reprocher que j’ai pour autant envie de vivre dans une société où, par exemple, le parti au pouvoir surveillerait ses opposants politiques. Et puis, si je n’ai rien à me reprocher, pourquoi devrais-je être traité·e comme un·e suspect·e ? J’ai peut-être confiance dans mon gouvernement actuel pour traiter avec sagesse les données collectées sur la population, mais l’arrivée d’un pouvoir avec d’autres vues plus radicales pourrait alors changer la donne. Finalement, c’est quand même perturbant que ma vie privée puisse être espionnée avec le risque que, peut-être, un jour, des activités intimes soit retournées contre moi. Il faut juste avoir conscience que, généralement, il faut sacrifier de la liberté pour avoir de la sécurité. Ce sont deux options légitimes mais difficilement compatibles qui demandent souvent de choisir. Sous prétexte de défendre la sécurité, on perd ainsi notre liberté.

Dans un contexte discriminatoire, comme par exemple en Afrique du Sud pendant l’apartheid, on imagine aisément que le gouvernement ou des acteurs privés auraient aimé pouvoir repérer les personnes de couleur noire sur des vidéos de télésurveillance. En Chine actuellement, les Ouïgours dans le Xinjiang, une minorité majoritairement de confession musulmane, est harcelée. L’état est doté des technologies les plus avancées et on peut penser qu’elle serait le type de client de la “reconnaissance faciale ethnique”. Or, l’ONU a affirmé cet été avoir de très sérieuses raisons de penser que 1 à 2 millions de Ouïghours seraient détenus dans des camps de rééducation. On peut donc sérieusement se demander si de tels logiciels, sous réserve qu’ils soient réellement capables techniquement de le faire, ne contribueraient pas à cibler des minorités ethniques à des fins allant à l’encontre des droits de l’Homme et mettant en danger des millions d’êtres humains.

La loi doit-elle interdire les technologies dont l’usage peut être contraire à l’éthique ?

D’un point de vue juridique, il n’existe pas aujourd’hui de lois internationales qui pourraient interdire certaines technologies. On pourrait imaginer que la France interdise l’usage de la reconnaissance faciale pour déterminer l’origine ethnique d’individus parce que les statistiques ethniques y sont interdites, sauf dérogation expresse de la Commission nationale de l’informatique et des libertés. Cela n’empêcherait pas un autre pays de l’autoriser et permettre ainsi la création de tels logiciels. Si un pays considère que la technologie est neutre, il a peu de raisons de l’interdire. Dans ce cas, c’est plutôt un usage qui pourrait être interdit. Par exemple, si une boîte de nuit équipée d’un logiciel à l’entrée autorisait les entrées seulement aux personnes de couleur blanche, cela serait illégal. La question centrale concernerait l’intention de ceux qui veulent utiliser un tel logiciel et, si l’intention était de discriminer certaines personnes avec des origines ethniques particulières, alors ce type d’outil pourrait automatiser le profilage racial et être interdit.

Du point de vue de l’entreprise capitaliste, son objectif principal étant la recherche du profit, à partir du moment où il y a une demande et que c’est légal de vendre ce logiciel, elle n’est pas obligée de se poser de questions éthiques. Cela relève du seul choix de l’entreprise de prendre en compte ou non les conséquences sociétales que peuvent générer ses produits. Certaines entreprises technologiques choisissent de limiter leurs produits à ce qu’elles considèrent éthiques et d’autres non. Parfois, ce sont les employés qui font pression en interne pour inciter leur entreprise à tenir compte des enjeux éthiques. Malgré tout, même si une entreprise comme NtechLab choisissait de s’interroger sur le bien-fondé éthique de son outil de reconnaissance faciale, elle pourrait tout à fait considérer que son logiciel ne pose pas de problème de ce point de vue.

C’est en effet la différence entre la morale et l’éthique. Alors que la morale est foncièrement prescriptive, qu’elle énonce des lois et détermine des règles à ne pas transgresser, l’éthique n’est pas impérative, elle est de l’ordre du conseil. Elle indique les risques d’obtenir tel résultat en fonction de telle action et propose de s’interroger sur notre volonté. L’éthique est donc d’abord centrée sur ce que je désire faire de moi-même, le choix de suivre les règles qui me semblent légitimes, sans contrainte extérieure. On pourrait résumer la morale par “tu dois” et l’éthique par “si tu veux”.

Pourquoi les questions éthiques sont essentielles ?

L’éthique des vertus modernes considère que l’homme est à inventer, qu’il n’y a pas de modèle donné une fois pour toutes. Nous devons consentir à un effort sans fin pour nous humaniser. Il est essentiel de se rappeler que l’humanité n’est pas acquise une fois pour toutes mais que, selon nos choix, on peut gagner en humanité… ou perdre en humanité.