HyperAI超神経

OmniConsistency: GPT-4oレベルの文字スタイル転送モデル

1. チュートリアルの概要

GitHubスター

OmniConsistencyは、シンガポール国立大学のShow Labが2025年5月28日に発表した拡散トランスフォーマーをベースにした、汎用的な一貫性強化プラグインです。OmniConsistencyは、視覚的な一貫性と美的品質を大幅に向上させ、最先端の商用モデルGPT-4oに匹敵する性能を実現します。オープンソースモデルと商用モデル(GPT-4oなど)間のスタイル一貫性における性能ギャップを埋め、AI作成のための低コストで制御性の高いソリューションを提供し、画像生成技術の民主化を促進します。その互換性とプラグアンドプレイ機能により、開発者やクリエイターにとって利用のハードルが低くなります。関連論文の結果は「OmniConsistency: ペアの様式化データからスタイルに依存しない一貫性を学習する”。

このチュートリアルで使用されるコンピューティング リソースは、単一の RTX A6000 カードです。

2. エフェクト表示

3. 操作手順

1. コンテナを起動します

「Bad Gateway」と表示される場合、モデルが初期化中であることを意味します。モデルが大きいため、2〜3分ほど待ってページを更新してください。

2. 使用例

Web ページに入ると、モデルを操作できるようになります。

カスタムLoRAをご利用の場合、モデルをオンラインでダウンロードする必要があるため、生成に時間がかかります。しばらくお待ちください。また、モデルのダウンロード中にネットワークの問題が発生すると、ダウンロードに失敗する可能性があります。コンテナを再起動して、モデルを再度ダウンロードすることをお勧めします。

結果を生成する

4. 議論

🖌️ 高品質のプロジェクトを見つけたら、メッセージを残してバックグラウンドで推奨してください。さらに、チュートリアル交換グループも設立しました。お友達はコードをスキャンして [SD チュートリアル] に参加し、さまざまな技術的な問題について話し合ったり、アプリケーションの効果を共有したりできます。

引用情報

Githubユーザーに感謝 スーパーヤン  このチュートリアルの展開。このプロジェクトの引用情報は次のとおりです。

@inproceedings{Song2025OmniConsistencyLS,
  title={OmniConsistency: Learning Style-Agnostic Consistency from Paired Stylization Data},
  author={Yiren Song and Cheng Liu and Mike Zheng Shou},
  year={2025},
  url={https://api.semanticscholar.org/CorpusID:278905729}
}