Liberté, égalité et algorithmes

LOUVAINS

algorithmes

« Une petite recette informatique qui permet de résoudre un problème. » C’est comme cela qu’Axel Legay, professeur en cybersécurité à l’UCLouvain, décrit un algorithme. Est-ce une recette magique ou une recette trop grasse, trop sucrée, trop salée pour nos libertés ? Le secret réside, comme toujours en cuisine, dans le juste équilibre des ingrédients.

Non, les algorithmes ne sont pas nés avec Facebook ou Netflix. Nous y sommes soumis depuis des dizaines d’années mais il s’agissait d’algorithmes humains. « Ces dernières années, l’informatique arrive et se déploie dans toute une série de devices. Ordinateur, téléphone, à la maison communale ou dans la voiture par exemple. » Sous leur forme informatique, les algorithmes prennent de plus en plus de place dans la société. « Ça ne fait qu’augmenter et ça ne s’arrêtera pas », avance Axel Legay

Il y a de plus en plus de collectes de données privées avec un manque cruel de transparence sur les finalités d’utilisation et l'institution qui les effectue. « La population est perdue et aurait bien besoin d’avoir un cadastre de ces données pour savoir à quoi elles sont utilisées. On le sait peu mais en Belgique, pour les données d’État, il y a souvent moyen de trouver l’information. Mais il faut fouiller. » Les citoyens sont donc en perte de confiance.

Les données récoltées par des sociétés privées valent de l’or. Désormais, le hacker n’est plus seulement intéressé par notre numéro de carte de crédit. Il cherchera notre numéro de téléphone et notre adresse e-mail. « Pourtant, ces données ne sont pas toujours perçues comme sensibles », poursuit le chercheur.

Collecte de données en entrave à nos libertés

Fournir nos données nous permet d’avoir accès à une quantité de choses qui n’existaient pas avant, et donc, implicitement, à de nouveaux droits. Mais ces données sont parfois détournées de leurs usages, sont extorquées sans consentement, ou encore la finalité change en cours de route. Au début de la crise, la base de données des tests covid avait un but noble : obtenir les résultats d’un test rapidement et à distance. Mais quand ces données sont transmises à la police en vue de contrôler la quarantaine, la donne n’est plus la même. « Tout est une question de perception. Communiquer des données à la police pour le respect d’une quarantaine peut être vu comme du contrôle et une perte de liberté par une série de citoyennes et citoyens. Mais d’autres le considèrent comme un droit puisque les personnes qui ne respectent pas la quarantaine empêchent les autres de sortir en sécurité », argumente le spécialiste en cybersécurité.

« L’Europe est une vieille démocratie qui n’est pas encore habituée à l’informatique. Même si beaucoup ont un ordinateur ou un téléphone, nous ne raisonnons pas avec une pensée informatique », estime l’enseignant. Qui pense qu’il y a urgence à former les jeunes générations dans ce sens. « Il faut les informer des avantages et des dangers. C’est la seule façon pour eux de garder leur ‘libre arbitre’. »

Privation de liberté

En France, les algorithmes sont déjà utilisés dans les enquêtes policières : il y a des comparaisons informatiques de dossiers avec intervention humaine, c’est ce qu’on appelle de l’intelligence artificielle faible. L'algorithme assiste l’humain mais ne le remplace pas. « Avec ce type de technologie, il faut faire attention à ce que le physique, la nationalité ou toute autre information ne place pas une personne dans une catégorie de facteurs aggravants, comme on l’a vu aux États-Unis avec la couleur de peau. C’est malsain. »

La justice, quant à elle, se base sur des éléments que l’intelligence artificielle ne maitrise pas encore. C’est l'émotion et la capacité de compréhension. Une intelligence artificielle rendrait la justice très injuste, voire dictatoriale dans certains cas. « Il y a des circonstances qui peuvent être aggravantes ou atténuantes devant le tribunal. Le juge, en discutant avec la personne, peut percevoir des choses comme une expression du visage (et de vie) que l’ordinateur n’est pas encore en capacité de percevoir », relève le chercheur.

Humanisation biaisée

Pour rendre humain un algorithme, il faudrait pouvoir répondre à la question ‘Qu’est-ce que l’être humain ?’ « C’est extrêmement dur à caractériser, voire impossible. Il y a très peu d’études sur le sujet. » Chaque être est différent, il y aura donc immanquablement un biais humain. Prenons aussi les interactions et la manière de s’exprimer. Même si le deep learning permet d’aller plus loin en ce sens, reconnaitre les expressions du visage, les comprendre et y réagir reste difficile pour la machine. « Chez le médecin, pour une même douleur, un patient peut dire ‘j’ai mal’ et un autre patient ‘j’ai très mal’. Le médecin est capable de faire la différence pour défi nir la juste balance. Mais comment la définit-on de façon mathématique ? C’est très compliqué. »

La liberté de choisir ce qu'on lit, ce qu'on regarde

Facebook, Instagram, Netflix, Prime Video... Ces géants du web décident pour nous ce que nous sommes supposé·es aimer et nous le proposent dès la connexion. « Ces algorithmes sont censés nous faire sortir de temps en temps de notre zone de confort, même si ça ne remplacera jamais le fait d’aller chercher dans le catalogue entier de Netfl ix, par exemple. Et ça va sans doute nous empêcher d’avoir un coup de coeur pour un programme inédit. » Un conseil : il ne faut pas hésiter à sortir de ces suggestions. L’algorithme ne nous prive donc pas totalement de faire des choix par nous-mêmes. « Par contre, je pense que cela atténue surtout notre créativité. Les créatifs ont généralement besoin de se planter. Le fait qu’on choisisse toujours bien pour nous, que toutes nos actions soient des succès, peut empêcher d’être créatif. Donc, c’est une liberté perdue. »

Une liberté non discriminante

Un algorithme peut-il nous empêcher de trouver un emploi ou un logement ? « Bien sûr, il y a des cas connus. Comme cette entreprise qui est passée par un algorithme pour sélectionner un programmeur. Les statistiques montrent que les programmeurs sont plus souvent des hommes. Les hommes ne mettent pas en avant les mêmes atouts et informations que les femmes sur leur curriculum vitae. Donc, si on entraine les algorithmes qui sélectionnent les programmeurs uniquement sur des cv d’hommes et qu’il y a une procédure automatique de classement des cv, les femmes seront très probablement discriminées. » Il ne s’agit pas d’une sélection faite sur le genre mais bien sur les données associées à la personne. L'algorithme aura appris à faire une sélection uniquement sur une population qu’il connait.

Vivre en dehors des algorithmes

Les algorithmes sont partout, il devient compliqué de vivre sans en être prisonnier ou prisonnière. « Ce qui est interpellant, c’est que le biais humain est dans le biais algorithmique qui revient dans le biais humain… Un cercle vicieux est en train d’émerger qui crée des sociétés clones en comportement. » Ceux qui ont créé les algorithmes n’ont pas voulu en faire une arme de destruction massive. « Mais d’autres s’en emparent pour, par exemple, trouver des personnes à licencier ou à engager dans une entreprise ou décider ce qui doit passer à la télévision. » Tout cela engendre une société formatée, sans émotion.

La liberté de revivre

Le passeport sanitaire est un simple objet mais il est géré par des algorithmes. « Si l’on pense que le posséder est une forme de liberté, alors oui, l'informatique rendra la liberté encore plus accessible. » Mais si on utilise ce passeport dans des algorithmes complexes de prédiction pour déduire des informations et restreindre nos libertés comme dans certains pays asiatiques, alors il y a danger. Les algorithmes seuls ne suffi sent pas, il faut les coupler à des études de terrain. « De façon générale, je ne suis pas sûr que ces passeports soient une bonne nouvelle pour l'humanité », conclut Axel Legay.

Sabrina Gaspari
Chargée de communication

Axel LegayAxel Legay
Professeur à l’École polytechnique de Louvain, chercheur à l’Institute for Information and Communication Technologies, Electronics and Applied Mathematics de l’UCLouvain (ICTEAM). Spécialiste en cybersécurité et validation formelle. 

 

Article paru dans le Louvain[s] de juin-juillet-août 2021