Optimisation Non Convexe
Optimisation non convexeIl est utilisé dans les domaines de l'apprentissage automatique et du traitement du signal, principalement pour les problèmes non convexes, c'est-à-dire qu'il s'agit d'une méthode qui résout directement le problème sans utiliser de traitement de relaxation et optimise directement les formules non convexes.
Les techniques d’optimisation non convexes courantes incluent les suivantes :
- Descente de gradient projetée
- Minimisation alternée
- Algorithme de maximisation des attentes
- Optimisation stochastique et ses variantes
Ces méthodes sont rapides dans la pratique. Actuellement, l’apprentissage profond et certains problèmes d’apprentissage automatique impliquent un traitement d’optimisation non convexe.
Transformation pour l'optimisation non convexe
- Modifier la fonction objectif pour la transformer en fonction convexe ;
- Supprimez les contraintes et faites du nouveau domaine faisable un ensemble convexe.