異種情報ネットワーク(Heterogeneous Information Network, HIN)は、現実世界のデータセットに含まれる豊富な構造情報を要約し、多数のビッグデータ応用において重要な役割を果たしている。近年、グラフニューラルネットワーク(GNN)はHINの表現学習へと拡張されつつある。特に注目すべき進展として、ノード単位および意味論単位の両方のアテンションを統合する階層的アテンション機構が提唱されている。しかしながら、HINは多様な種類のエッジを持つため、より密接な接続構造を示しがちであり、グラフ畳み込み層を繰り返し適用すると、ノード埋め込みが非常に迅速に区別不能な状態(oversmoothness)に陥る傾向がある。過剰なスムージングを回避するため、従来のHIN向けGNNは一般的に浅い構造に制限されており、その結果、局所近傍を超えた情報を無視するという設計上の欠陥が生じている。これは、長距離依存関係を捉えることの重要性を強調する「非局所学習(non-local learning)」の概念に反するものである。この制約を適切に解決するため、本研究では異種情報ネットワークにおける非局所アテンションのための新規フレームワーク「NLAH(Non-local Attention in Heterogeneous Information Networks)」を提案する。本フレームワークは、階層的アテンション機構を補完する非局所アテンション構造を用いることで、局所的および非局所的な情報を同時に活用する。さらに、大規模データセットにおける計算コストを低減するため、重み付きサンプリングスキーマを設計した。3つの異なる実世界の異種情報ネットワークを用いた広範な実験により、本フレームワークが優れたスケーラビリティを示し、最先端のベースライン手法を著しく上回ることを実証した。