
미니맥스 최적화 문제를 해결하기 위해 설계된 경사하강-상승(Gradient Descent-Ascent, GDA) 알고리즘은 하강 및 상승 단계를 동시에(동시형 GDA, Sim-GDA) 또는 번갈아가며(교대형 GDA, Alt-GDA) 수행한다. Alt-GDA는 일반적으로 더 빠른 수렴 속도를 보인다고 관측되지만, 특히 전역 수렴 속도 측면에서 두 알고리즘 간의 성능 차이에 대한 이론적 이해는 아직 충분히 이루어지지 않았다. 이러한 이론과 실무 간 격차를 해소하기 위해, 우리는 강볼록-강볼록(concave) 및 리프시츠-기울기(Lipschitz-gradient) 목표 함수에 대해 두 알고리즘의 미세한 수렴 분석을 제시한다. 본 연구에서 제안하는 Alt-GDA의 새로운 반복 복잡도 상한은 Sim-GDA의 하한보다 엄격히 작음을 보이며, 이는 Alt-GDA가 증명된 의미에서 더 빠르다는 것을 의미한다. 더불어, 반복값의 외삽(extrapolation)을 활용해 경사를 번갈아가며 취하는 아이디어를 기반으로, Sim-GDA와 Alt-GDA를 포괄하는 일반적인 알고리즘 프레임워크인 교대외삽 GDA(Alternating-Extrapolation GDA, Alex-GDA)를 제안한다. Alex-GDA는 외삽된 반복값에서 경사를 추출하는 방식을 통해, Extra-gradient 방법과 동일한 낮은 반복 복잡도 상한을 만족하면서도 더 적은 경사 계산을 요구함을 보인다. 또한, Alex-GDA가 이차형 문제(bilinear problems)에 대해 선형 수렴(linear convergence)을 보임을 증명하였으며, 이 경우 Sim-GDA와 Alt-GDA는 전혀 수렴하지 못함을 확인하였다.