In-Context Edit은 저장대학교와 하버드대학교가 2025년 4월 29일에 발표한 명령어 기반 이미지 편집을 위한 효율적인 프레임워크입니다. 이전 방식과 비교했을 때, ICEdit은 학습 가능한 매개변수가 1%(200M)에 불과하고 학습 데이터는 0.1%(50k)에 불과하여 강력한 일반화 능력을 보여주고 다양한 편집 작업을 처리할 수 있습니다. Gemini나 GPT4o 등의 상용 모델과 비교했을 때, 더 오픈 소스이고 비용이 낮으며, 더 빠르고 강력합니다. 관련 논문 결과는 다음과 같습니다.컨텍스트 내 편집: 대규모 확산 변환기에서 컨텍스트 내 생성을 통한 교육용 이미지 편집 활성화".
이 튜토리얼에서는 단일 RTX 4090 카드를 리소스로 사용합니다. 공식적으로 언급된 9초의 이미지 생성 시간을 달성하려면 더 높은 사양의 그래픽 카드가 필요합니다. 이 프로젝트는 현재 영어로 된 텍스트 설명만 지원합니다.
이 프로젝트에 사용된 모델:
노멀-로라
FLUX.1-채움-개발
2. 프로젝트 예시
다른 비즈니스 모델과의 비교
3. 작업 단계
1. 컨테이너 시작 후 API 주소를 클릭하여 웹 인터페이스로 진입합니다.
"잘못된 게이트웨이"가 표시되면 모델이 초기화 중임을 의미합니다. 모델이 크기 때문에 1~2분 정도 기다리신 후 페이지를 새로고침해 주세요.
2. 데모 사용
❗️중요 사용 팁:
지도 척도: 생성 모델에서 조건부 입력(예: 텍스트나 이미지)이 생성된 결과에 미치는 영향의 정도를 제어하는 데 사용됩니다. 높은 지침 값을 사용하면 생성된 결과가 입력 조건과 더 일치하게 되지만, 낮은 값을 사용하면 더 많은 무작위성이 유지됩니다.
추론 단계 수: 모델의 반복 횟수 또는 추론 과정의 단계 수를 나타내며, 모델이 결과를 생성하는 데 사용하는 최적화 단계 수를 나타냅니다. 일반적으로 단계 수가 많을수록 더 정교한 결과가 나오지만 계산 시간은 늘어날 수 있습니다.
씨앗: 생성 과정의 무작위성을 제어하는 데 사용되는 난수 시드입니다. 동일한 Seed 값은 동일한 결과를 생성할 수 있습니다(다른 매개변수가 동일하다는 전제 하에). 이는 결과를 재현하는 데 매우 중요합니다.
4. 토론
🖌️ 고품질 프로젝트를 발견하시면, 백그라운드에 메시지를 남겨 추천해주세요! 또한, 튜토리얼 교환 그룹도 만들었습니다. 친구들의 QR코드 스캔과 [SD 튜토리얼] 댓글을 통해 그룹에 가입하여 다양한 기술 이슈에 대해 논의하고 신청 결과를 공유해 주시기 바랍니다.↓
인용 정보
Github 사용자에게 감사드립니다 슈퍼양 이 튜토리얼의 배포. 이 프로젝트에 대한 인용 정보는 다음과 같습니다.
@misc{zhang2025ICEdit,
title={In-Context Edit: Enabling Instructional Image Editing with In-Context Generation in Large Scale Diffusion Transformer},
author={Zechuan Zhang and Ji Xie and Yu Lu and Zongxin Yang and Yi Yang},
year={2025},
eprint={2504.20690},
archivePrefix={arXiv},
primaryClass={cs.CV},
url={https://arxiv.org/abs/2504.20690},
}