PatentBERT : Classification de brevets avec l'ajustement d'un modèle BERT pré-entraîné

Dans cette étude, nous nous concentrons sur l'ajustement fin d'un modèle BERT pré-entraîné et son application à la classification des brevets. Lorsqu'il est appliqué à de grands ensembles de données comprenant plus de deux millions de brevets, notre approche surpass celle utilisant un réseau neuronal convolutif (CNN) avec des plongements de mots (word embeddings). De plus, nous nous focalisons uniquement sur les revendications des brevets, sans prendre en compte les autres parties des documents de brevet. Nos contributions incluent : (1) une nouvelle méthode d'état de l'art basée sur le modèle BERT pré-entraîné et son ajustement fin pour la classification des brevets, (2) un grand ensemble de données USPTO-3M au niveau des sous-classes CPC accompagné de requêtes SQL qui peuvent être utilisées par les chercheurs futurs, (3) la démonstration que les revendications de brevet seules sont suffisantes pour la tâche de classification, contrairement aux idées reçues.