OmniConsistency: GPT-4oレベルの文字スタイル転送モデル
1. チュートリアルの概要

OmniConsistencyは、シンガポール国立大学のShow Labが2025年5月28日に発表した拡散トランスフォーマーをベースにした、汎用的な一貫性強化プラグインです。OmniConsistencyは、視覚的な一貫性と美的品質を大幅に向上させ、最先端の商用モデルGPT-4oに匹敵する性能を実現します。オープンソースモデルと商用モデル(GPT-4oなど)間のスタイル一貫性における性能ギャップを埋め、AI作成のための低コストで制御性の高いソリューションを提供し、画像生成技術の民主化を促進します。その互換性とプラグアンドプレイ機能により、開発者やクリエイターにとって利用のハードルが低くなります。関連論文の結果は「OmniConsistency: ペアの様式化データからスタイルに依存しない一貫性を学習する”。
このチュートリアルで使用されるコンピューティング リソースは、単一の RTX A6000 カードです。
2. エフェクト表示

3. 操作手順
1. コンテナを起動します
「Bad Gateway」と表示される場合、モデルが初期化中であることを意味します。モデルが大きいため、2〜3分ほど待ってページを更新してください。
2. 使用例
Web ページに入ると、モデルを操作できるようになります。
カスタムLoRAをご利用の場合、モデルをオンラインでダウンロードする必要があるため、生成に時間がかかります。しばらくお待ちください。また、モデルのダウンロード中にネットワークの問題が発生すると、ダウンロードに失敗する可能性があります。コンテナを再起動して、モデルを再度ダウンロードすることをお勧めします。

結果を生成する

4. 議論
🖌️ 高品質のプロジェクトを見つけたら、メッセージを残してバックグラウンドで推奨してください。さらに、チュートリアル交換グループも設立しました。お友達はコードをスキャンして [SD チュートリアル] に参加し、さまざまな技術的な問題について話し合ったり、アプリケーションの効果を共有したりできます。

引用情報
Githubユーザーに感謝 スーパーヤン このチュートリアルの展開。このプロジェクトの引用情報は次のとおりです。
@inproceedings{Song2025OmniConsistencyLS,
title={OmniConsistency: Learning Style-Agnostic Consistency from Paired Stylization Data},
author={Yiren Song and Cheng Liu and Mike Zheng Shou},
year={2025},
url={https://api.semanticscholar.org/CorpusID:278905729}
}