Francesco, wie sehen Sie den Einfluss der generativen KI seit Einführung von ChatGPT?
Was sich wirklich verändert hat, ist die Demokratisierung der künstlichen Intelligenz. Früher war es ein Werkzeug, das ausschließlich Technikern vorbehalten war, um Prognosen zu treffen oder Analysen durchzuführen. Mit ChatGPT wurde eine einfache Schnittstelle eingeführt, die für jeden zugänglich ist. Dahinter verbirgt sich allerdings eine immense technologische Komplexität. Wir haben es hier mit einer nicht-deterministischen Technologie zu tun. Das heißt, wenn zweimal die gleiche Frage gestellt wird, können sich zwei unterschiedliche Antworten ergeben. Das sorgt für Kreativität, birgt aber auch Risiken wie Halluzinationen oder Verzerrungen.
Welche Hauptrisiken sehen Sie dementsprechend?
KI-Bias ist ein zentrales Thema. Wir haben am LIST ein Open-Source-Tool, die „LIST AI Sandbox“, entwickelt, um Modelle in allen Sprachen auf Verzerrungen zu testen. Ein rassistisches oder sexistisches Modell beispielsweise kann schwerwiegende Folgen haben, vor allem im beruflichen Umfeld. Außerdem besteht ein Cybersicherheitsrisiko: „Vibe Coding“, d. h. die Entwicklung von Code durch KI, kann fragilen Code erzeugen, der anfällig für Angriffe ist. Es werden also robustere, besser trainierte Modelle benötigt.
Europa scheint gegenüber den USA und China ins Hintertreffen zu geraten. Wie sehen Sie das?
Es stimmt, dass die Amerikaner das Rennen anführen, dicht gefolgt von den Chinesen. Europa hat noch kein vergleichbares technisches Können nachgewiesen. Aber es reagiert. Das Projekt der „AI Factories“, von denen sich eine in Luxemburg befindet, ist ein gutes Beispiel. Mit „MeluXina AI“, einem Rechner mit mehr als 2.000 GPUs („Graphics Processing Units“), können wir komplexe Modelle trainieren und KMUs und Start-ups begleiten. Das LIST spielt dabei mit seiner wissenschaftlichen Expertise eine Schlüsselrolle.
Wie steht es mit der Frage nach der technologischen Souveränität?
Ich ziehe es vor, von strategischer Unabhängigkeit zu sprechen. Heute verwenden selbst europäische Rechenzentren US-amerikanische Chips. Auch Luxemburg ist bereits betroffen: Es steht auf einer Liste, die den Zugang zu Grafikprozessoren der neuesten Generation einschränkt. Deshalb ist die Entwicklung europäischer Alternativen entscheidend, wie z. B. „RISC-V“-Chips (Open-Source-Prozessorarchitektur). Das erfordert Zeit und Investitionen, ist aber unerlässlich.
Auch die Datenfrage spielt eine zentrale Rolle. Ist die DSGVO ein Hindernis?
Nicht unbedingt. Das eigentliche Problem ist, dass die großen Modelle mit gigantischen Datenmengen trainiert werden, oft ohne jede Kontrolle. Dies wirft ethische und rechtliche Fragen auf. Vor allem aber ist dieses Paradigma des "immer größer" nicht nachhaltig. Wir brauchen deshalb eine genügsame KI mit kleineren, spezialisierten, kombinierbaren Modellen, die weniger Energie und Ressourcen verbrauchen. Und das entwickeln wir am LIST.
Und was lässt sich gegen den Mangel an KI-Fachkräften tun?
Es wird nie genug Experten geben, um mit der Entwicklung Schritt zu halten. Deshalb entwickeln wir „BESSER“, eine Open-Source-Plattform, mit der man Software mit KI entwickeln kann, ohne Experte zu sein. Ziel ist es, mit einem Chatbot in Dialog zu treten, um Anwendungen auf sichere Weise automatisch zu generieren. Das ist eine Möglichkeit, den Zugang zu KI zu demokratisieren und gleichzeitig ein hohes Qualitätsniveau zu halten.
Und schließlich: Wie sehen die wichtigsten künftigen Trends aus?
Die sogenannte agentische KI ist bereits im Entstehen: Agenten, die in der Lage sind, komplexe Aufgaben selbstständig auszuführen. Das vergrößert allerdings die genannten Risiken: Verzerrung, Fehler, falsche Entscheidungen. Daher müssen Test-, Validierungs- und vor allem Steuerungsmechanismen gestärkt werden. Luxemburg mit seiner Tradition der regulierten Innovation bietet sich an, um ein Referenzzentrum für die ethische und rechtliche Zertifizierung von KI-Systemen zu werden.