Intelligence artificielle: pour une IA de confiance

intelligence

Peut-on se fier à l’intelligence artificielle ? Les membres du réseau Trusted AI Labs (TRAIL), se sont réunis autour du thème de l’IA de confiance. L’occasion de réfléchir sur les questions éthiques posées par l’usage de cette technologie, à l’approche d’une législation européenne sur la question.

L’intelligence artificielle est en amélioration constante et touche une multitude de secteurs : médecine, environnement, mobilité, droit...

Le 9 juin se tenait l’évènement annuel organisé par la communauté TRAIL. Cette communauté de scientifiques spécialisés dans la question de l’intelligence artificielle, co-fondée par l’UCLouvain, rassemble l’ensemble des universités francophones et centres de recherche agréés actifs dans le numérique.

La thématique de l’événement ? L’intelligence artificielle de confiance.

Expertes et experts internationaux, entreprises et politiques se sont réuni·es pour questionner l’utilisation de cette technologie qui peut être à double tranchant, notamment dans certains secteurs considérés comme « à risques » (santé, secteur marchand, etc.).

L’intelligence artificielle dite « de confiance » est une IA dont on garde la maitrise de l’algorithme. Cette maitrise passe, notamment, par une meilleure « explicabilité » des choix opérés par la technologie.

À la manière d’un médecin qui exposerait au patient les étapes qui l’ont mené à un certain diagnostic, il est possible de détailler le cheminement et l’ensemble des éléments qui ont mené l’IA jusqu’à la prise de décision finale.

En Région Wallonie-Bruxelles, près de 200 expert·es de l’IA ont rejoint le réseau TRAIL en signant la Charte en faveur d’un usage éthique de l’IA, c’est-à-dire près d’un·e chercheur·e sur trois dans le domaine.

Une règlementation européenne basée sur l’IA de confiance

L’IA de confiance est une thématique brûlante d’actualité. En effet, l’Europe a adopté, mercredi dernier, le texte fixant un cadre juridique pour l’usage de l’intelligence artificielle. Il s’agit de la première loi de régulation de l’IA émanant d’une autorité majeure dans le monde.

L’objectif de l’« AI Act » ? Permettre aux Européens de bénéficier des avantages d’une intelligence artificielle respectueuse de leurs droits (droit à la vie privée, non-discrimination, etc.) et en laquelle ils peuvent avoir confiance.

Si une règlementation juridique s’avérait indispensable vu l’ampleur et le succès grandissant de cette technologie, l’intelligence artificielle de confiance ne résout pas tout.

De l’IA de confiance à l’IA éthiquement responsable

« De l’IA de confiance, on doit désormais se diriger vers une IA éthiquement responsable, expliquent Benoît Macq, Pr à l’école Polytechnique de Louvain et Anne-Laure Cadji, cheffe de projet au sein de TRAIL.
« Les règlementations actuelles ne suffisent pas. Il est primordial d’éduquer et de responsabiliser les scientifiques et entreprises sur le sujet. »

Une décision de l’IA qui est explicable n’est pas pour autant une bonne décision. Par exemple, le fait qu’une intelligence artificielle refuse l’octroi d’un prêt bancaire à un client sur base de critères définis est éthiquement questionnable.

C’est pourquoi il est indispensable de toujours tenir compte du poids éthique que sous-tend le recours à l’intelligence artificielle.

« On ne peut plus se contenter de développer des nouvelles technologies en se concentrant uniquement sur la dimension technique. On doit questionner ces technologies sous le regard des sciences humaines et des citoyens. »

L’intelligence artificielle sauve des vies

Selon les scientifiques, ce n’est pas tant la technologie que l’on doit interroger, mais bien l’usage que l’on en fait.

En effet, l’intelligence artificielle est dotée d’un immense potentiel, notamment en termes d’amélioration des soins de santé et de prise en charge des patients et patientes :

« Outre l’amélioration des diagnostics, l’IA permet de développer la médecine préventive : par l’analyse des types de profils touchés par l’une ou l’autre maladie, il serait possible de détecter les habitudes à risque, et ainsi limiter le surgissement de certaines pathologies. »

« Sociétalement, il serait irresponsable de ne pas utiliser l’IA : elle permet de sauver des vies, d’améliorer la qualité de vie quotidienne. Elle permet aussi de mieux éduquer, d’opter pour les meilleurs choix énergétiques (environnement) » conclut Benoît Macq.

Les ambitions du réseau TRAIL

  • Créer une communauté de recherche scientifique où chacun et chacune est formé et sensibilisé à l’IA de confiance
  • Encourager les échanges entre scientifiques, entreprises et politiques afin de multiplier les angles de vue soutenir l’adoption et l’usage d’une IA de confiance
  • Apporter son expertise juridique sur les questions d’intelligence artificielle et notamment sur les implications du AI Act
  • Mobiliser les capacités de recherches et d’innovation
  • Mettre l’IA au service du développement socioéconomique de la Wallonie
  • Mettre la Belgique sur la carte européenne des lieux d’excellence dans ce domaine

Publié le 21 juin 2023