Mieux analyser les Big Data pour mieux gérer les grandes épidémies

Utiliser les Big Data pour prédire avec précision et simplicité l’évolution d’une épidémie ou la propagation d’un virus, voilà le pari un peu fou relevé par Jean-Charles Delvenne, chercheur au sein du Pôle en ingénierie mathématique de l’Institute of Information and Communication Technologies, Electronics and Applied Mathematics de l’UCL. À la clé : une meilleure gestion des grandes épidémies.

Lorsqu’une épidémie comme le Zika frappe l’Amérique du Sud ou qu’une maladie nosocomiale se propage dans un hôpital, pouvoir prédire l’évolution de la situation est essentiel. Et ce, autant que la mise en place des soins de première urgence. En effet, savoir comment et à quelle vitesse se propage un virus ou une bactérie permet de déterminer la manière la plus efficace d’endiguer une épidémie. Un angle d’attaque qui ne concerne pas seulement les médecins mais aussi les spécialistes de l’analyse des transmissions de l’information.

Des bases de données d’une extrême richesse

Or, ces dernières années, ces spécialistes ont dû faire face à un nouveau paramètre : l’arrivée de nouvelles bases de données fournissant de nouvelles informations aussi nombreuses que précises. Ce qu’on appelle les Big Data. « Tant les moyens d’acquisition que les moyens de stockage de données ont évolué. Résultat, nous disposons d’informations très détaillées sur les populations : leurs localisations, la manière dont elles communiquent, leurs déplacements, etc. Nous sommes donc de moins en moins limités par la disponibilité des informations, ce qui pouvait être le cas dans le passé. Ce qui est une bonne nouvelle ! Cependant, cela change notre manière de travailler : on n’analyse pas de telles bases de données aussi vite et aussi efficacement que des bases de données plus petites », explique Jean-Charles Delvenne. Pour que ces nouvelles données soient donc réellement utiles, il faut d’abord élaborer des nouvelles techniques pour les analyser.

Réseau social vs dynamique sociale des individus

Aidé de ses collègues Luis Rocha et Renaud Lambiotte de l’Université de Namur, Jean-Charles Delvenne a décidé d’attaquer le problème par le prisme de deux types de données :

  • le réseau social des individus
  • la dynamique sociale des individus.

Deux éléments essentiels encore jamais pris en compte en même temps. « Le réseau social est la manière dont les individus concernés sont liés entre eux. Il peut prendre la structure d’une école, d’une classe, d’une ville, d’un pays, etc. Cette information est étudiée depuis une dizaine d’année dans les cercles académiques et permet notamment de savoir quels segments de la population étudiée seront touchés prioritairement en cas d’épidémie. Quant à la dynamique sociale des individus, elle s’attache à la fréquence à laquelle ils se rencontrent, ils se parlent, ils se touchent ainsi qu’à la régularité de ces contacts. Cette dynamique sociale influence directement l’ordre et le timing de la transmission d’un virus, par exemple. »

Less is more

Une fois le décor planté, encore faut-il savoir comment se servir pertinemment de ces deux types de données… D’autant que, plus la quantité d’informations est grande, plus leur analyse est longue. « Or, lorsqu’on analyse une épidémie, il est important de pouvoir tester de nombreux scénarii en temps raisonnable. Il faut réussir à être efficace le plus rapidement possible », insiste Jean-Charles Delvenne. C’est là qu’une observation faite par les chercheurs intervient ! « Nos travaux nous ont permis de constater que bien que ces deux paramètres soient importants, ils ne sont pas forcément utiles en même temps. Très souvent, l’un des paramètres écrase l’autre. Ainsi, tantôt c’est le réseau social qui fournit l’information la plus intéressante et tantôt c’est la dynamique sociale. »

Déterminer qui du réseau ou de la dynamique prime

Fort de cette constatation, plutôt que d’élaborer un algorithme fastidieux qui prendrait beaucoup de temps pour analyser les deux paramètres simultanément au sein d’un jeu de données, Jean-Charles Delvenne et ses collègues ont choisi une option plus rapide et plus efficace : élaborer un algorithme qui permet de prédire rapidement qui du réseau ou de la dynamique tenir compte. « Une fois cette réponse obtenue, il suffit de lancer un second algorithme, relativement rapide, qui prédira l’évolution de l’épidémie le plus précisément possible sur base du paramètre le plus pertinent », conclut le chercheur.

Elise Dubuisson

​​​Coup d'oeil sur la bio de Jean-Charles Delvenne

Jean-Charles Delvenne

2002                Master en ingénierie mathématique (UCL)
2005                Docteur en sciences appliquées (UCL)
2006- 2009     Postdoctorats à Caltech, Imperial College London et UCL
2009 – 2010    Professeur à l’Université de Namur (naXys)
Depuis 2010   Professeur à l’UCL (Ecole Polytechnique de Louvain, ICTEAM, CORE)

Publié le 28 juin 2016