
要約
本稿では、自動車修理に関する不正保険請求を含む「Vehicle Claimsデータセット」を紹介する。このデータセットは、ジャーナルデータやネットワーク侵入データなども含む広義の監査データ(Auditing data)のカテゴリに属する。保険請求データは、ネットワーク侵入データなど他の監査データと異なり、非常に多数のカテゴリカル属性を有する点で特徴的である。異常検出における共通の課題であるベンチマークデータセットの不足に直面しており、実際のデータセットは多くが機密性が高く、公開されているテーブル形式データセットも関連性と十分なカテゴリカル属性を備えていない。この目的のために、大規模なデータセットを構築し、これを「Vehicle Claims(VC)データセット」と呼ぶ。本データセットは、浅層学習および深層学習手法を用いて評価されている。カテゴリカル属性の導入に伴い、大規模データセットにおける属性の符号化という課題に直面した。高基数のカテゴリカル属性に対してワンホット符号化(One Hot encoding)を適用すると「次元の呪い」が発生するため、GEL符号化(GEL encoding)および埋め込み層(embedding layer)を用いた表現手法を検証した。本研究では、ラベル、ワンホット符号化、GEL符号化、埋め込み層を用いた状況下で、競争的学習(competitive learning)、再構成誤差(reconstruction-error)、密度推定(density estimation)、対照学習(contrastive learning)の各アプローチを比較検討した。