Francesco, comment percevez-vous l’impact de l’IA générative depuis l’arrivée de ChatGPT ?
Ce qui a vraiment changé, c’est la démocratisation de l’intelligence artificielle. Avant, c’était un outil réservé aux techniciens pour faire des prédictions ou des analyses. ChatGPT a introduit une interface simple, accessible à tous. Mais cette simplicité masque une complexité technologique immense. On est face à une technologie non déterministe : poser deux fois la même question peut donner deux réponses différentes. Cela introduit de la créativité, mais aussi des risques, comme les hallucinations ou les biais.
Justement, quels sont les risques majeurs que vous identifiez ?
Le biais est un sujet central. Nous avons développé au LIST un outil open source, le « LIST AI Sandbox », pour tester les biais dans les modèles, dans toutes les langues. Un modèle raciste ou sexiste, par exemple, peut avoir des conséquences graves, surtout dans un cadre professionnel. Il y a aussi le risque de cybersécurité : le « vibe coding », c’est-à-dire le développement de code par IA, peut générer du code fragile, vulnérable aux attaques. Il faut donc des modèles plus robustes, mieux entraînés.
L’Europe semble en retard face aux États-Unis et à la Chine. Quel est votre point de vue ?
C’est vrai que les Américains mènent la course, suivis de près par les Chinois. L’Europe n’a pas encore démontré une capacité technique équivalente. Mais elle réagit. Le projet des « AI Factories », dont une à Luxembourg, est un bon exemple. Grâce à « MeluXina AI », une machine dotée de plus de 2.000 GPU (« graphics processing units »), nous pourrons entraîner des modèles complexes et accompagner les PME et start-ups. Le LIST y joue un rôle clé en apportant son expertise scientifique.
Et sur la question de la souveraineté technologique ?
Je préfère parler d’indépendance stratégique. Aujourd’hui, même les datacenters européens utilisent des puces américaines. Et le Luxembourg est déjà concerné : il figure sur une liste restreignant l’accès aux GPU de dernière génération. Il est donc crucial de développer des alternatives européennes, comme les puces « RISC-V » (architecture de processeurs open source). Cela demandera du temps et des investissements, mais c’est indispensable.
La question des données est aussi centrale. Le RGPD est-il un frein ?
Pas forcément. Le vrai problème, c’est que les grands modèles sont entraînés sur des volumes de données gigantesques, souvent sans contrôle. Cela pose des questions éthiques et légales. Mais surtout, ce paradigme du « toujours plus gros » n’est pas durable. Il faut aller vers une IA frugale, avec des modèles plus petits, spécialisés, combinables, qui consomment moins d’énergie et de ressources. C’est ce que nous développons au LIST.
Et comment répondre au manque de compétences en IA ?
Il n’y aura jamais assez d’experts pour suivre le rythme. C’est pourquoi nous développons « BESSER », une plateforme open source qui permet de créer des logiciels intégrant de l’IA sans être expert. L’idée est de dialoguer avec un chatbot pour générer automatiquement des applications de manière sécurisée. C’est une façon de démocratiser l’accès à l’IA tout en gardant un haut niveau de qualité.
Enfin, quelles sont les grandes tendances à venir ?
L’IA agentique est déjà en train d’émerger : des agents capables d’exécuter des tâches complexes de manière autonome. Mais cela amplifie les risques évoqués : biais, erreurs, décisions erronées. Il faudra donc renforcer les mécanismes de test, de validation, et surtout de gouvernance. Le Luxembourg, avec sa tradition d’innovation réglementaire, a une carte à jouer pour devenir un centre de référence en matière de certification éthique et légale des systèmes d’IA.