微細な視覚分類(Fine-Grained Visual Classification: FGVC)においては、顕著な進展が達成されているものの、依然として深刻な過適合(overfitting)がモデルの汎化性能を阻害している。最近の研究では、学習データセット内のハードサンプル(hard samples)は容易に適合可能であることが示されているが、大多数の既存のFGVC手法は、テストセットにおける一部のハードサンプルを正しく分類できないという問題を抱えている。その原因は、モデルが学習データ内のハードサンプルに過適合してしまう一方で、テストデータに存在する未観測のサンプルに対しては一般化能力を学習できないことにある。本論文では、ハードサンプルを適切に調節する「中程度のハードサンプル調節法(Moderate Hard Example Modulation: MHEM)」を提案する。MHEMは、ハードサンプルへの過適合を抑制しつつ、より優れた汎化性能と識別能力を実現することを可能にする。まず、三つの条件を導入し、調節された損失関数の一般的な形式を定式化する。次に、この損失関数を具体化し、FGVCにおける強力なベースラインを構築する。このベースラインにより、単純なバックボーンモデルの性能が顕著に向上し、最近の手法と同等の性能を達成できる。さらに、本ベースラインが既存手法に容易に統合可能であり、それらの識別能力をさらに高められることを示す。本手法を用いて、CUB-200-2011、Stanford Cars、FGVC-Aircraftの3つの代表的なFGVCデータセットにおいて、一貫した性能向上を達成した。本研究で提示する「中程度のハードサンプル調節」のアイデアが、今後のより効果的な微細な視覚認識に関する研究を促進することを期待する。