애플 연구팀, 자가학습 AI로 SwiftUI 개발 혁신 구현
애플 연구팀이 오픈소스 대규모 언어모델을 활용해 SwiftUI UI 코드를 자율적으로 학습하는 기술을 개발해 주목받고 있다. 논문 ‘UICoder: 자동 피드백을 통한 대규모 언어모델의 UI 코드 생성’에서 팀은 기존 모델이 UI 코드를 생성할 때 문법은 맞지만 설계가 불완전하거나 실행 불가능한 문제를 해결했다. 핵심은 데이터 부족 문제였는데, 기존 데이터셋에서 SwiftUI 코드는 1% 미만에 불과했고, 주요 데이터셋인 TheStack과 OpenAssistant-Guanaco에서는 거의 존재하지 않았다. 연구팀은 오픈소스 모델 StarChat-Beta를 기반으로, 자동 피드백 루프를 도입했다. 첫 단계에서 UI 설명을 입력해 대량의 SwiftUI 코드를 생성하고, 두 번째 단계에서 Swift 컴파일러로 실행 가능성 검증, GPT-4V를 활용해 생성된 인터페이스와 원본 설명의 일치 여부를 평가했다. 세 번째 단계에서는 실패한 코드, 중복되거나 무관한 출력을 제거하고, 고품질 데이터만 추출해 모델을 반복적으로 미세조정했다. 5라운드의 반복을 거쳐 99만 개의 SwiftUI 코드를 포함한 대규모 데이터셋을 구축했고, 이를 기반으로 개발한 UICoder 모델은 기존 StarChat-Beta보다 자동 평가와 인간 평가 모두에서 뛰어난 성능을 보였다. 특히 코드 컴파일 성공률은 GPT-4를 넘어섰고, 전반적인 품질은 GPT-4 수준에 근접했다. 이 성과의 핵심은 기존 데이터를 재정렬한 것이 아니라, 스스로 데이터를 생성하고 평가하며 학습한 진정한 ‘자기학습’의 성공이었다는 점이다. 연구팀은 이 방법이 다른 프로그래밍 언어와 UI 프레임워크에도 확장 가능하다며, AI 기반 소프트웨어 개발의 새로운 가능성을 제시했다.