Dav- ID contre Gol– IA -th

Des chercheurs en informatique de UCLouvain développent un nouveau modèle mathématique révolutionnaire pour protéger la vie privée et garantir une utilisation plus sûre de l’IA.

L’anonymat est essentiel pour protéger la liberté d’expression et les droits numériques dans nos démocraties. Il repose sur l’absence d’identification, de surveillance ou de traçabilité des individus. Cependant, avec les avancées en puissance de calcul et en intelligence artificielle (IA), garantir cet anonymat devient de plus en plus difficile. Le Professeur Julien Hendrickx avec des anciens de UCLouvain, maintenant à l’Imperial College de Londres et à l’université d’Oxford, ont mis au point un nouveau modèle mathématique pour mieux comprendre les risques posés par l’IA et aider les régulateurs à protéger la vie privée des individus. Les résultats de cette étude sont publiés ce jeudi 9 janvier dans Nature Communications.

Dans un précédent article publié dans Nature Communications en 2019, les mêmes chercheurs avaient démontré que des informations partielles, comme des données démographiques (âge, code postal, genre), suffisaient pour ré-identifier une grande partie d’une base de données prétendument anonymisées. Ce travail avait révélé l'ampleur des risques liés à la diffusion de données sensibles, même après anonymisation.

Dans leur nouvel article publié dans Nature Communications, les auteurs proposent un modèle innovant qui évalue les performances des techniques d’identification à grande échelle, dans différents contextes d’application et de comportement. 

Julien Hendrickx, co-auteur et professeur à l’UCLouvain, mentionne « Les méthodes actuelles ne permettent pas de tirer des conclusions à grande échelle sur base des résultats à petite échelle, c’est précisément ce que notre modèle, baptisé modèle de correction Pitman-Yor (PYC), permet ».

Ce modèle s’appuie sur les statistiques bayésiennes pour apprendre à quel point les individus sont similaires, et extrapoler la précision de l’identification à des populations plus importantes, avec une performance jusqu’à 10 fois supérieure aux heuristiques et règles empiriques précédentes. Ce travail fournit, pour la première fois, un cadre scientifique robuste permettant d’évaluer les techniques d’identification, notamment pour les données à grande échelle.

Les chercheurs pensent que leur méthode peut aider à mieux comprendre les risques posés par l’IA et permettre aux régulateurs de mieux protéger la vie privée des citoyens. En effet, bien que des réglementations comme le Règlement Général sur la Protection des Données encadrent strictement l’utilisation et le partage des données personnelles, les données anonymisées échappent à ces restrictions. Le risque de ré-identification est donc critique avec des enjeux sociétaux.

Yves-Alexandre de Montjoye, ingénieur de l’UCLouvain, co-auteur et professeur associé à l’Imperial College London, mentionne :

«Comprendre l’évolutivité de l’identification est essentiel pour évaluer les risques posés par ces techniques de ré-identification, notamment pour garantir la conformité avec les législations modernes sur la protection des données dans le monde entier. »

Par exemple, dans des études médicales, le modèle mathématique peut aider à déterminer si des informations sur des patients pourraient être utilisées pour retrouver leur identité. Dans des contextes tels que les hôpitaux, la distribution d’aide humanitaire ou le contrôle aux frontières, les enjeux sont extrêmement élevés, et il est crucial de disposer de systèmes d’identification précis et fiables.Dans leur article, les chercheurs montrent également les impacts concrets que leur méthode pourrait avoir dans la vie quotidienne. Par exemple, en surveillant la précision des codes publicitaires et des trackers invisibles qui identifient les utilisateurs en ligne à partir de petits détails, comme le fuseau horaire ou les paramètres de navigateur, une technique appelée "empreinte digitale de l’appareil".

Ils expliquent également comment cette méthode pourrait aider les organisations à trouver un meilleur équilibre entre les avantages des technologies d’IA et la nécessité de protéger les données personnelles des individus, rendant les interactions quotidiennes avec la technologie plus sûres et plus sécurisées.

Luc Rocher, ancien Doctorant de l’UCLouvain et maintenant à l’université d’Oxford conclut :

« Nous pensons que ce travail constitue une étape cruciale vers le développement de méthodes rigoureuses pour évaluer les risques posés par les techniques d’IA de plus en plus avancées et la nature de l’identification des traces humaines en ligne. Nous espérons que ce travail sera d’une grande aide aux chercheurs, responsables de la protection des données, membres de comités d’éthique et autres praticiens qui cherchent à équilibrer le partage de données pour la recherche et la protection de la vie privée des patients, des participants et des citoyens. »

 

Publié le 09 janvier 2025