드래그앤드롭 LLMs: 제로샷 프롬프트-투-웨이츠

현대의 파라미터 효율적인 미세 조정(Parameter-Efficient Fine-Tuning, PEFT) 방법 중 하나인 저순위 적응(Low-Rank Adaptation, LoRA)은 대형 언어 모델(Large Language Models, LLMs)을 맞춤화하는 비용을 줄이지만, 여전히 각 하류 데이터셋에 대해 별도의 최적화 과정이 필요합니다. 우리는 이러한 문제를 해결하기 위해 \textbf{드래그 앤 드롭 LLMs (\textit{DnD})}를 소개합니다. 이는 프롬프트 조건부 파라미터 생성기로, 몇 개의 라벨이 없는 작업 프롬프트를 직접 LoRA 가중치 업데이트로 매핑하여 작업별 훈련을 제거합니다. 경량 텍스트 인코더는 각 프롬프트 배치를 조건 임베딩(condition embeddings)으로 요약하며, 이를 연속적인 하이퍼-컨볼루셔널 디코더(hyper-convolutional decoder)가 전체 LoRA 행렬 집합으로 변환합니다. 다양한 프롬프트-체크포인트 쌍에서 사전 훈련된 후, DnD는 몇 초 안에 작업 특화 파라미터를 생성하여 i) 전체 미세 조정(full fine-tuning)보다 최대 \textbf{12,000배} 낮은 오버헤드를 제공하고, ii) 기존 상식 추론, 수학, 코딩 및 다중 모달 벤치마크에서 가장 강력한 LoRA 훈련 결과보다 평균 성능이 최대 \textbf{30\%} 향상되며, iii) 목표 데이터나 라벨을 전혀 보지 않은 상태에서도 견고한 크로스 도메인 일반화 능력을 보여줍니다. 우리의 결과는 프롬프트 조건부 파라미터 생성이 그래디언트 기반 적응(gradient-based adaptation)의 대안으로서 LLMs를 신속하게 특화시키는 데 유효하다는 것을 입증합니다. 본 프로젝트는 \href{https://jerryliang24.github.io/DnD}{https://jerryliang24.github.io/DnD}에서 확인할 수 있습니다.