OmniConsistency는 싱가포르 국립대학교 쇼랩(Show Lab)에서 2025년 5월 28일 발표한 확산 변환기 기반의 범용 일관성 향상 플러그인입니다. OmniConsistency는 시각적 일관성과 미적 품질을 크게 향상시켜 최첨단 상용 모델인 GPT-4o에 필적하는 성능을 달성합니다. 오픈소스 모델과 상용 모델(예: GPT-4o) 간의 스타일 일관성 성능 격차를 메우고, AI 생성을 위한 저렴하고 제어 가능한 솔루션을 제공하며, 이미지 생성 기술의 민주화를 촉진합니다. 또한, 호환성과 플러그 앤 플레이 기능을 통해 개발자와 제작자가 OmniConsistency를 사용하기 위한 문턱을 낮춰줍니다. 관련 논문 결과는 다음과 같습니다.OmniConsistency: 페어링된 스타일화 데이터에서 스타일 무관 일관성 학습".
이 튜토리얼에서 사용된 컴퓨팅 리소스는 RTX A6000 카드 1개입니다.
2. 효과 표시
3. 작업 단계
1. 컨테이너를 시작하세요
"잘못된 게이트웨이"가 표시되면 모델이 초기화 중임을 의미합니다. 모델이 크기 때문에 약 2~3분 정도 기다리신 후 페이지를 새로고침해 주시기 바랍니다.
2. 사용 예
웹 페이지에 접속하면 모델과 상호작용할 수 있습니다.
Custom LoRA를 사용하는 경우, 모델을 온라인으로 다운로드하는 데 시간이 걸리므로 생성하는 데 시간이 더 오래 걸립니다. 잠시 기다려 주세요. 또한, 모델 다운로드 과정에서 네트워크 문제로 인해 모델 다운로드가 실패할 수 있습니다. 컨테이너를 다시 시작하고 모델을 다시 다운로드하는 것이 좋습니다.
결과 생성
4. 토론
🖌️ 고품질 프로젝트를 발견하시면, 백그라운드에 메시지를 남겨 추천해주세요! 또한, 튜토리얼 교환 그룹도 만들었습니다. 친구들의 QR코드 스캔과 [SD 튜토리얼] 댓글을 통해 그룹에 가입하여 다양한 기술 이슈에 대해 논의하고 신청 결과를 공유해 주시기 바랍니다.↓
인용 정보
Github 사용자에게 감사드립니다 슈퍼양 이 튜토리얼의 배포. 이 프로젝트에 대한 인용 정보는 다음과 같습니다.
@inproceedings{Song2025OmniConsistencyLS,
title={OmniConsistency: Learning Style-Agnostic Consistency from Paired Stylization Data},
author={Yiren Song and Cheng Liu and Mike Zheng Shou},
year={2025},
url={https://api.semanticscholar.org/CorpusID:278905729}
}