Résumé:
L’intelligence artificielle moderne propose des modèles puissants, mais souvent peu
interprétables. Les Kolmogorov-Arnold Networks (KANs), inspirés du théorème de
Kolmogorov-Arnold, introduisent une architecture neuronale innovante où les poids fixes sont
remplacés par des fonctions univariées apprenables, comme les B-splines ou les séries de
Fourier naïves.
Cette approche permet des transformations locales, non linéaires et interprétables, tout en
conservant une grande capacité d’approximation. Contrairement aux MLPs classiques, les
KANs s’adaptent dynamiquement à la structure des données, tout en offrant une meilleure
transparence mathématique.
Dans ce travail, les KANs sont appliqués à la détection d’anomalies dans des séries temporelles.
Les séries de Fourier naïves y sont utilisées à double titre : d’une part comme méthode de
prétraitement, et d’autre part comme fonctions paramétriques apprenables intégrées dans les
arêtes du réseau. Les résultats obtenus montrent une précision élevée et une interprétabilité
symbolique des comportements détectés.
Ce travail met en lumière le potentiel des KANs pour des systèmes d’IA à la fois performants,
transparents et adaptés à des contextes critiques.