近年、自己注意(self-attention)を用いた特徴抽出により、変換器(Transformer)ベースの手法は、低照度画像強調タスクにおいてCNNベースの手法と比べて強力な競争力を示している。変換器ベースの手法は、長距離のピクセル依存関係を効果的にモデル化できるため、より良い照明補正、自然な色再現、および高いコントラストを実現する上で極めて有効である。しかし、自己注意機構に伴う高い計算コストが、低照度画像強調におけるその発展を制限しており、一部の手法は精度と計算コストのバランスを取ることに苦慮している。本研究では、提案されたピクセル単位およびパッチ単位のクロス注意(pixel-wise and patch-wise cross-attention)機構を基盤とする、軽量かつ効果的なネットワークPPformerを、低照度画像強調に向け開発した。PPformerはCNNとTransformerを統合したハイブリッドネットワークであり、局所ブランチ(local-branch)、グローバルブランチ(global-branch)、およびデュアルクロス注意(Dual Cross-Attention)の三つの部分に構成される。各構成要素はPPformerにおいて重要な役割を果たす。具体的には、局所ブランチはワイド強調モジュール(Wide Enhancement Module)のスタックを用いて局所的な構造情報を抽出し、グローバルブランチはクロスパッチモジュール(Cross Patch Module)とグローバル畳み込みモジュール(Global Convolution Module)によって精緻化されたグローバル情報を提供する。また、自己注意とは異なり、抽出されたグローバルな意味情報を用いて局所的および非局所的な間の依存関係をガイドする。このデュアルクロス注意の計算により、PPformerはより自然な明るさ、良好な色再現性、および高いコントラストを持つ画像を効果的に復元できる。提案されたデュアルクロス注意機構により、PPformerはフルサイズの特徴マップ上でピクセルレベルおよびパッチレベルの依存関係を効果的に捉えることが可能となる。11の実世界ベンチマークデータセットを用いた広範な実験の結果、PPformerは従来の最先端手法と比較して、定量的および定性的な両面で優れた性能を達成した。