15일 전

제로차수 최적화를 통한 연합 학습에서 차원 독립적 통신 달성

Zhe Li, Bicheng Ying, Zidong Liu, Chaosheng Dong, Haibo Yang
제로차수 최적화를 통한 연합 학습에서 차원 독립적 통신 달성
초록

연합 학습(Federated Learning, FL)은 분산된 데이터 소스 간의 협업 및 개인정보 보호를 동시에 가능하게 하는 유망한 프레임워크를 제공한다. 그러나 FL과 관련된 상당한 통신 비용은 그 효율성에 중대한 도전 과제를 제기한다. 특히 각 통신 라운드에서 통신 비용은 모델 차원에 비례하여 선형적으로 증가하며, 이는 특히 대규모 모델 환경에서 극복하기 어려운 장벽이 된다. 다양한 통신 효율화 전략이 제안되었음에도 불구하고, 모델 차원에 따라 변하는 본질적인 통신 비용은 현재 FL 구현에서 주요한 성능 저해 요인으로 남아 있다. 본 논문에서는 제로차 최적화 기법을 활용하여 차원에 의존하지 않는 새로운 통신 알고리즘인 DeComFL을 제안한다. 이 알고리즘은 각 라운드마다 클라이언트와 서버 간에 고정된 개수의 스칼라 값만을 전송함으로써 통신 비용을 $\mathscr{O}(d)$에서 $\mathscr{O}(1)$로 감소시킨다. 이는 모델 파라미터의 차원 $d$와 무관하게 동일한 양의 데이터만을 전송함을 의미한다. 이론적으로 비볼록 함수 상황에서, 제안된 알고리즘이 표준 가정 하에 클라이언트 수 및 로컬 스텝 수에 대해 선형 속도 향상을 달성하는 최신 기준 수준의 수렴 속도를 보임을 입증하였다. 추가로 낮은 유효 랭크 가정을 도입할 경우, 수렴 속도가 모델 차원 $d$에 독립적이됨을 더 이상 보일 수 있다. 실증 평가를 통해 전통적인 딥러닝 학습 및 대규모 언어 모델의 파인튜닝을 포함한 다양한 시나리오에서 통신 부하의 극적인 감소를 확인하였다. 특히 DeComFL은 수십억 개의 파라미터를 가진 모델을 파인튜닝하기 위해 서버와 클라이언트 간 총 1MB 내외의 데이터만 전송함으로써 이 성과를 달성하였다. 본 논문의 코드는 https://github.com/ZidongLiu/DeComFL 에서 공개되어 있다.

제로차수 최적화를 통한 연합 학습에서 차원 독립적 통신 달성 | 최신 연구 논문 | HyperAI초신경