Réseau Morphologique : Jusqu'où Pouvoir Aller avec les Neurones Morphologiques ?

Les neurones morphologiques, c'est-à-dire les opérateurs morphologiques tels que la dilatation et l'érosion avec des éléments structurants apprenables, ont suscité l'intérêt des chercheurs depuis longtemps en raison de la puissance qu'apportent ces opérateurs malgré leur simplicité. Ces opérateurs sont reconnus pour être des outils non linéaires puissants, mais pour un problème donné, élaborer une séquence d'opérations et déterminer leurs éléments structurants est une tâche non triviale. Par conséquent, les travaux existants se sont principalement concentrés sur cette partie du problème sans approfondir leur applicabilité en tant qu'opérateurs génériques. Quelques études ont tenté d'utiliser les neurones morphologiques comme composant de réseaux de classification (et de régression) lorsque l'entrée est un vecteur de caractéristiques. Cependant, ces méthodes se concentrent principalement sur un problème spécifique, sans entrer dans une analyse théorique générique. Dans ce travail, nous avons effectué une analyse théorique des neurones morphologiques et démontré que ceux-ci sont bien plus puissants que ce qui était précédemment supposé. Le bloc morphologique que nous proposons, comprenant la dilatation et l'érosion suivies de leur combinaison linéaire, représente une somme de fonctions charnières. Les travaux existants montrent que les fonctions charnières s'avèrent très efficaces dans les problèmes de classification et de régression. Deux blocs morphologiques peuvent même approximer toute fonction continue. Cependant, pour faciliter l'analyse théorique présentée dans cet article, nous nous sommes limités à la version 1D des opérateurs, où l'élément structurant agit sur l'ensemble de l'entrée. Les évaluations expérimentales indiquent également l'efficacité des réseaux construits avec des neurones morphologiques par rapport aux réseaux neuronaux ayant une structure similaire.