L’usage de l’intelligence artificielle par des groupes extrémistes et terroristes peut être dévastateur. Stéphane Baele, professeur à l’UCLouvain FUCaM Mons, tire la sonnette d’alarme et donne quelques recommandations pour atténuer les menaces.
Ces dernières années, l’intelligence artificielle (IA) a connu un développement exponentiel et s’est imposée dans tous les domaines de notre vie. Elle permet des progrès considérables en médecine, en sport et dans bien d’autres secteurs, si elle est utilisée à bon escient.
Or, parallèlement à l’explosion de l’IA, le domaine numérique a vu un autre phénomène s’amplifier : l’extrémisme. Et la combinaison IA + extrémisme peut avoir des effets dévastateurs, comme l’analyse un rapport que vient de publier le professeur Stéphane Baele.
« Comme chaque percée technologique passée, l’IA sera, et est déjà, utilisée de diverses manières par des entrepreneurs de la haine et de la violence pour renforcer des agendas extrémistes », affirme le professeur de science politique sur le campus FUCaM de l’UCLouvain. En examinant « l’extrémisme IA », soit la rencontre toxique et inéluctable de ces deux évolutions, il comble un vide dans la littérature scientifique qui s’était jusqu’à présent plutôt penchée sur les dimensions éthiques et légales de l’IA.
Dans son rapport, le chercheur s’attelle à identifier les différentes technologies liées à l’IA et les tactiques que des acteurs extrémistes pourraient mettre, voire mettent déjà en œuvre au service de leur cause.
Trois technologies d’IA identifiées
|
Les progrès de l’IA étant actuellement exponentiels et le cadre légal n’étant qu’embryonnaire, les modèles d’IA générative sont déjà sujets aux abus, tandis que les autres modèles ne sont pas à l’abri de détournements. La publication de ce rapport entend poursuivre un double objectif : informer sur l’émergence de ce nouveau problème de sécurité, mais formuler également certaines recommandations.
Limiter l’open source ?
« Les plateformes de médias sociaux doivent intensifier leur développement d’outils de détection de contenus générés par IA et clairement les identifier. Les gouvernements devraient encourager les principaux acteurs de l’IA à intégrer des garde-fous plus solides dans l’usage de leurs technologies. »
Stéphane Baele pointe aussi une question plus existentielle, touchant aux fondements d’internet : l’open source. « Tant les gouvernements que le secteur académique et les acteurs privés doivent se questionner et faire la balance bénéfices/risques de l’accès public aux informations liées à l’IA. Des directives collectives doivent être imposées pour éviter que des modèles et données sensibles ne tombent dans le domaine public, mais aussi pour protéger les chercheurs à l’origine de ces modèles. »
Un guide anti-terroriste IA
Enfin, le politologue en appelle à une approche proactive et offensive des autorités. « Entre les démocraties libérales et les régimes autoritaires, le rapport de force est asymétrique. L’usage de l’IA par les extrémistes, tel que décrit dans ce rapport, devrait être exploité par nos services de renseignement et de sécurité pour contrer les dynamiques extrémistes. » Un peu comme la cybersécurité a appris des hackers…
AI Extremism. Technologies, tactics, actors est publié et disponible en libre accès sur voxpol.eu. Coordonné par le professeur Stuart MacDonald du Centre de recherche sur les cybermenaces (CYTREC) de l'université de Swansea, VOX-Pol est un réseau de recherche de premier plan au niveau mondial sur l'extrémisme et le terrorisme en ligne. Depuis 2022, Stéphane Baele fait partie de son comité de direction. Stéphane Baele est professeur de sciences politiques à l’UCLouvain FUCaM Mons. Il a travaillé durant 9 ans à l’université d’Exeter en tant qu’associate professor. Ses recherches se focalisent sur la communication des acteurs politiques violents et extrémistes. |