HyperAI

Nicht-konvexe Optimierung

Nichtkonvexe OptimierungEs wird in den Bereichen maschinelles Lernen und Signalverarbeitung hauptsächlich für nichtkonvexe Probleme verwendet, d. h. es handelt sich um eine Methode, die das Problem direkt löst, ohne Relaxationsverarbeitung zu verwenden, und nichtkonvexe Formeln direkt optimiert.

Zu den gängigen nichtkonvexen Optimierungstechniken gehören die folgenden:

  • Projizierter Gradientenabstieg
  • Abwechselnde Minimierung
  • Erwartungs-Maximierungs-Algorithmus
  • Stochastische Optimierung und ihre Varianten

In der Praxis sind diese Methoden schnell. Derzeit erfordern Deep Learning und einige Probleme des maschinellen Lernens nicht-konvexe Optimierungsprozesse.

Transformation für nicht-konvexe Optimierung

  • Ändern Sie die Zielfunktion, um sie in eine konvexe Funktion umzuwandeln.
  • Verwerfen Sie die Einschränkungen und machen Sie die neue zulässige Domäne zu einer konvexen Menge.