イベントを理解するには、入力文書におけるイベント表現間の構造的・時系列的な順序を認識し、イベント構造/グラフを構築することが不可欠である。この目的を達成するために、本研究では、テキスト内の2つのイベント表現/トリガー間における部分イベント関係(Subevent Relation Extraction; SRE)および時系列イベント関係(Temporal Event Relation Extraction; TRE)を予測するという課題に取り組んでいる。近年の最先端手法では、入力となるイベント表現ペアに対して効果的な文脈表現を獲得するために、Transformerベースの言語モデル(例:BERT)が活用されている。しかし、現存するSREおよびTREにおけるTransformerベースのモデルの主要な制約は、入力テキストの長さに限界があること(例:BERTでは最大512のサブトークンまで)であり、文書内において離れた位置にある重要な文脈文を効果的に捉えることができない点にある。本研究では、イベント間関係抽出において重要な文脈文を適切に捉え、文書レベルの文脈をよりよくモデル化するための新規手法を提案する。本手法は、特定のエンティティ表現ペアに対して文書内で最も重要な文脈文を同定し、それらを短縮された文書に統合することで、Transformerベースの言語モデルが完全に処理可能な形式で表現学習を実施できるようにする。モデルの学習にはREINFORCEアルゴリズムを採用し、本研究の問題に特化した新しい報酬関数を導入することで、モデルの性能評価および文の文脈的・知識的類似度を適切に捉える。広範な実験により、提案手法がベンチマークデータセットにおいて最先端の性能を達成し、その有効性が実証された。