Le 6 novembre dernier, Yurii Nesterov, professeur émérite à l’Ecole polytechnique de Louvain, chercheur au Center for Operations Research and Econometrics (CORE) a reçu à Shangai le prix World Laureates Association (WLA) en informatique ou mathématiques. Un prix qu’il partage avec Arkadi Nemirovski (Georgia Tech) pour leurs travaux précurseurs en théorie de l'optimisation convexe.
Chercheur de premier plan au niveau mondial dans le domaine de l'optimisation convexe depuis plus de 40 ans, le professeur Yurii Nesterov a obtenu ses premiers résultats importants dans le domaine des méthodes de gradient accéléré (Fast Gradient Methods, FGM). Une avancée qui prend de l'ampleur aujourd'hui et trouve un nombre croissant d'applications dans l'apprentissage automatique et l'intelligence artificielle. It's a new week vous invite à lever le voile sur ce domaine méconnu en compagnie du chercheur.
Quelle a été votre impression à l’annonce de ce prix ?J’étais plutôt surpris ! Ce prix a été décerné pour la première fois en 2022 et habituellement, dans une telle situation, la liste des candidat·es est généralement très longue et compte aussi des personnalités hors norme. C'est donc un grand honneur pour moi de recevoir cette reconnaissance, conjointement avec mon vieil ami et co-auteur des travaux récompensés, Arkadi Nemirovski.
En quoi consistent vos travaux ?Depuis de très nombreuses années, j'étudie des processus qui se passent dans notre société ou même dans la nature dont nous n'avons pas toujours conscience et qui peuvent être expliqués par l'optimisation. Nous ne les voyons pas parce que nous participons à ces processus, mais ils sont en réalité très efficaces. Leonhard Euler, l'un des plus grands mathématiciens de l'histoire*, affirmait que "rien ne se passe dans le monde dont la signification ne soit pas celle d'un minimum ou d'un maximum". Et c'est bien vrai. L'exemple le plus simple ? Celui de nos achats. Le comportement des consommatrices et des consommateurs peut être considéré comme la maximisation d'une fonction d'utilité implicite (qui maximise son utilité compte tenu de sa contrainte budgétaire). Nous faisons cela de manière inconsciente sans effectuer de calculs explicites (ce qui est difficile pour l'esprit humain !). Un autre exemple? Les embouteillages. Chaque conductrice ou conducteur essaie d'emprunter les chemins les plus courts, mais cela crée des embouteillages à différents endroits. Et pour les trouver ou les prévoir, nous devons minimiser une fonction potentielle globale, qui est invisible pour les participant·es, mais leur comportement peut être considéré comme une méthode de minimisation de cette fonction. Et bien sûr, il y a beaucoup d'autres exemples qui peuvent s'expliquer de cette façon.
En quoi votre approche est-elle originale ?Lorsque j'ai commencé mes recherches, le domaine de l'optimisation convexe n'était pas très populaire. Pendant de nombreuses années, j’ai donc pu y travailler quasiment sans concurrence. C'était vraiment une situation très confortable : nous avions suffisamment de temps pour réfléchir aux différentes variantes de la solution et choisir la meilleure. Pas de précipitation et une liberté totale ! Aujourd'hui, la situation est différente. J'ai plusieurs centaines de "followers", qui sont immédiatement alertés par une sorte de logiciel d'espionnage dès que je publie un article. Il est difficile d'être original maintenant. Heureusement, l'essentiel est déjà fait (je l'espère).
Vous avez mentionné dans une interview (ETH Zurich) qu’il faudrait expliquer aux étudiants qu'ils ne devraient pas faire aveuglément confiance aux ordinateurs, pour quelles raisons ?Parce que nous savons qu'il y a des problèmes solubles et des problèmes insolubles. Pour les problèmes insolubles, nous ne pouvons pas garantir que nous obtiendrons une solution dans un délai raisonnable (par exemple, le temps d'existence de l'univers). En revanche, on trouve souvent sur le marché des logiciels commerciaux qui prétendent pouvoir résoudre tous les problèmes du monde. Pour chaque problème, il fournit des réponses. Mais bien sûr, les chances qu'elles soient correctes sont faibles.
Si vous deviez améliorer un aspect de votre carrière de chercheur, quelle serait votre priorité ?Des règles flexibles pour la retraite.
Quand on parle de mathématiques, on parle souvent de leur beauté. Selon vous, qu'est-ce qui les rend "belles" ?Des explications simples pour des choses compliquées.
Comment êtes-vous arrivé à l'UCLouvain ?Un peu par hasard. J'ai quitté la Russie avec ma famille en 1992 et j'ai passé une année postdoctorale à l'université de Genève. Après cela, ma famille et moi-même souhaitions rester dans un pays francophone. Par chance, un poste était disponible au Center for Operations Research and Econometrics (CORE) où j’ai passé un entretien. J'ai trouvé cet endroit très agréable, tant pour la vie que pour la recherche. Le 19 septembre 2023, nous avons célébré les 30 ans de notre arrivée en Belgique et en particulier à l’UCLouvain.
Vous êtes devenu émérite cette année. Serez-vous encore actif au sein de l'université ?Il me reste une année de bourse "ERC Advanced Grant". Après cela, je continuerai à travailler. Notre domaine est très dynamique en ce moment. Il y a donc encore des questions intéressantes auxquelles il faut répondre.
* Leonhard Euler est celui qui a donné son nom au bâtiment Euler sur le campus de Louvain-la-Neuve. Ce batiment abrite notamment les chercheuses et les chercheurs en mathématiques appliquées (institut ICTEAM, Pôle INMA). Yurii Nesterov est membre de ce Pôle. |
The World Laureates Association Prize (WLA Prize) est un prix scientifique international créé à Shanghai en 2021. Initié par l'Association des lauréats du monde (WLA), ce prix est géré par la Fondation WLA et financé exclusivement par HongShan. Il est décerné dans deux catégories : "Informatique ou mathématiques" et "Sciences de la vie ou médecine". Le montant total de chaque prix, qui peut être divisé entre quatre lauréats au maximum, s'élève à 10 millions. Cette année, le montant de chaque prix sera réparti à parts égales entre les lauréats. Les travaux de Yurii Nesterov développés conjointement avec le professeur Arkadi Nemirovski sont fondamentaux dans le domaine de la théorie de l'optimisation convexe
, notamment la théorie des fonctions auto concordantes et des méthodes de point intérieur, une théorie de la complexité de l'optimisation, des méthodes de gradient accéléré et des avancées méthodologiques dans le domaine de l'optimisation robuste". Le développement fondamental suivant ( a été la théorie des méthodes de point intérieur en temps polynomial pour l'optimisation convexe. Selon cette théorie, tout problème d'optimisation convexe peut être résolu en temps polynomial à l'aide d'une méthode du second ordre, dotée d'une barrière auto concordante pour son ensemble réalisable. Une bonne barrière peut être trouvée en reformulant le problème initial. Il s'agit du premier exemple d'optimisation structurelle, qui rivalise avec succès avec les paramètres standard de la boîte noire. Il a été étendu aux formulations coniques primal-dual, qui soutiennent les méthodes les plus efficaces pour résoudre les inégalités matricielles linéaires, l'outil principal de la théorie moderne du contrôle. Son autre avancée est liée à la technique de lissage. Il a montré que toute fonction linéaire par morceaux avec une représentation explicite du maximum peut être efficacement approximée par une fonction convexe différentiable. En minimisant cette dernière par FGM, il est possible d'obtenir un algorithme qui dépasse de plusieurs ordres de grandeur les limites de complexité inférieures de Black-Box. Ces dernières années, il travaille sur des versions efficaces des méthodes d'ordre supérieur. La nouvelle régularisation cubique de la méthode de Newton est devenue le premier schéma du second ordre dont les limites de complexité globale peuvent être prouvées. Un résultat important sur la convexité des polynômes de Taylor augmentés a ouvert la voie au développement de méthodes tensorielles d'ordre supérieur avec des taux de convergence très élevés. Certaines implémentations des méthodes du troisième ordre sont aujourd'hui les plus efficaces en optimisation.
|