Depuis l’arrivée de ChatGPT en novembre 2022, comment percevez-vous l’évolution de l’intelligence artificielle dans les entreprises ?
Ce qui est fascinant, c’est la vitesse à laquelle les choses évoluent. Depuis mai 2023, on a assisté à une véritable appropriation de l’IA générative par les acteurs technologiques, qui l’ont intégrée dans leurs outils. Les entreprises, elles, ont dû rapidement se poser des questions fondamentales : légalité, conformité, gestion des risques, mais aussi comment accompagner les collaborateurs dans cette transformation. Ce qui est marquant, c’est que l’usage a d’abord été personnel, avant de devenir professionnel. Et aujourd’hui, on voit cette technologie s’infiltrer dans des domaines aussi variés que les drones, l’agriculture ou la gestion de catastrophes.
L’Europe semble souvent en retard par rapport aux États-Unis ou à la Chine. Est-ce aussi votre constat ?
C’est une réalité que l’innovation vient souvent d’ailleurs. Mais je pense qu’on a en Europe tous les fondamentaux pour rattraper ce retard. Les « AI Factories », les supercalculateurs comme « MeluXina », les partenariats avec des acteurs comme « Mistral », montrent une volonté politique forte. On a les compétences, les centres de recherche comme le LIST, les infrastructures. Ce qu’il faut maintenant, c’est exploiter ces ressources de manière stratégique.
La souveraineté numérique est un sujet brûlant. Comment l’abordez-vous ?
La souveraineté, c’est avant tout une question de choix. On peut décider d’utiliser des ressources hors Europe de manière transitoire, mais il faut que ce soit un choix, pas une obligation. Il ne s’agit pas de rivaliser en puissance brute avec les États-Unis, mais de comprendre nos besoins réels en calcul et de mutualiser intelligemment les ressources. L’analogie avec le réseau électrique européen est pertinente : il faut penser la puissance de calcul comme une ressource partagée.
Et sur la question des données, notamment avec le RGPD, l’Europe est-elle désavantagée ?
Pas nécessairement. Ce qui compte, ce n’est pas la quantité de données, mais leur qualité et leur pertinence. Les grands modèles sont entraînés sur des masses de données, mais cela ne garantit pas la fiabilité. Il faut aller vers des modèles plus frugaux, spécialisés, qui consomment moins et sont plus adaptés aux besoins réels. Et surtout, il faut garder la maîtrise de ce qu’on fait avec ces données.
Quels sont les défis humains dans cette transformation ?
Le plus grand défi, c’est l’acculturation. Il ne suffit pas d’avoir des experts. Il faut que tous les collaborateurs comprennent ce qu’est l’IA, comment elle fonctionne, et surtout comment elle s’intègre dans leur quotidien. Il faut aussi penser à la transmission des connaissances. Si une machine exécute un processus, il faut que les générations futures comprennent ce processus, même si elles ne l’exécutent plus elles-mêmes.
Quels sont les risques majeurs que vous identifiez ?
Le risque principal, c’est de faire de l’IA pour faire de l’IA. Ce qu’on appelle le « AI washing ». Il faut que chaque projet ait un vrai business case, qu’il apporte une valeur ajoutée. Sinon, on investit sans retour. Et puis il y a les risques techniques : biais, hallucinations, manque de causalité dans les modèles. Il faut rester vigilant et ne pas perdre de vue que l’IA est un outil, pas une fin en soi.
Et pour conclure, quelles sont les grandes tendances à venir ?
L’IA agentique est clairement une tendance forte. Des agents autonomes capables de collaborer pour atteindre un objectif commun. Mais cela pose de nouveaux défis, notamment en matière de gouvernance. Comment éviter que des agents se biaisent entre eux ? Comment garder le contrôle ? Ce sont des questions cruciales. Mais je reste optimiste : avec les bonnes compétences, la bonne régulation et une vision claire, l’Europe peut jouer un rôle de premier plan dans cette nouvelle ère.