HyperAI초신경

컨텍스트 내 편집: 명령 기반 이미지 생성 및 편집

프로젝트 페이지
깃허브
특허
GitHub 스타
아르시브

1. 튜토리얼 소개

In-Context Edit은 저장대학교와 하버드대학교가 2025년 4월 29일에 발표한 명령어 기반 이미지 편집을 위한 효율적인 프레임워크입니다. 이전 방식과 비교했을 때, ICEdit은 학습 가능한 매개변수가 1%(200M)에 불과하고 학습 데이터는 0.1%(50k)에 불과하여 강력한 일반화 능력을 보여주고 다양한 편집 작업을 처리할 수 있습니다. Gemini나 GPT4o 등의 상용 모델과 비교했을 때, 더 오픈 소스이고 비용이 낮으며, 더 빠르고 강력합니다. 관련 논문 결과는 다음과 같습니다.컨텍스트 내 편집: 대규모 확산 변환기에서 컨텍스트 내 생성을 통한 교육용 이미지 편집 활성화".

이 튜토리얼에서는 단일 RTX 4090 카드를 리소스로 사용합니다. 공식적으로 언급된 9초의 이미지 생성 시간을 달성하려면 더 높은 사양의 그래픽 카드가 필요합니다. 이 프로젝트는 현재 영어로 된 텍스트 설명만 지원합니다.

이 프로젝트에 사용된 모델:

  • 노멀-로라
  • FLUX.1-채움-개발

2. 프로젝트 예시

다른 비즈니스 모델과의 비교 

3. 작업 단계

1. 컨테이너 시작 후 API 주소를 클릭하여 웹 인터페이스로 진입합니다.

"잘못된 게이트웨이"가 표시되면 모델이 초기화 중임을 의미합니다. 모델이 크기 때문에 1~2분 정도 기다리신 후 페이지를 새로고침해 주세요.

2. 데모 사용

❗️중요 사용 팁:

  • 지도 척도: 생성 모델에서 조건부 입력(예: 텍스트나 이미지)이 생성된 결과에 미치는 영향의 정도를 제어하는 데 사용됩니다. 높은 지침 값을 사용하면 생성된 결과가 입력 조건과 더 일치하게 되지만, 낮은 값을 사용하면 더 많은 무작위성이 유지됩니다.
  • 추론 단계 수: 모델의 반복 횟수 또는 추론 과정의 단계 수를 나타내며, 모델이 결과를 생성하는 데 사용하는 최적화 단계 수를 나타냅니다. 일반적으로 단계 수가 많을수록 더 정교한 결과가 나오지만 계산 시간은 늘어날 수 있습니다.
  • 씨앗: 생성 과정의 무작위성을 제어하는 데 사용되는 난수 시드입니다. 동일한 Seed 값은 동일한 결과를 생성할 수 있습니다(다른 매개변수가 동일하다는 전제 하에). 이는 결과를 재현하는 데 매우 중요합니다.

4. 토론

🖌️ 고품질 프로젝트를 발견하시면, 백그라운드에 메시지를 남겨 추천해주세요! 또한, 튜토리얼 교환 그룹도 만들었습니다. 친구들의 QR코드 스캔과 [SD 튜토리얼] 댓글을 통해 그룹에 가입하여 다양한 기술 이슈에 대해 논의하고 신청 결과를 공유해 주시기 바랍니다.↓

인용 정보

Github 사용자에게 감사드립니다 슈퍼양  이 튜토리얼의 배포. 이 프로젝트에 대한 인용 정보는 다음과 같습니다.

@misc{zhang2025ICEdit,
      title={In-Context Edit: Enabling Instructional Image Editing with In-Context Generation in Large Scale Diffusion Transformer}, 
      author={Zechuan Zhang and Ji Xie and Yu Lu and Zongxin Yang and Yi Yang},
      year={2025},
      eprint={2504.20690},
      archivePrefix={arXiv},
      primaryClass={cs.CV},
      url={https://arxiv.org/abs/2504.20690}, 
}