HyperAI

Époque

Une époque dans l'apprentissage automatique fait référence au processus de transmission de l'ensemble des données d'entraînement via le réseau neuronal une fois (c'est-à-dire en effectuant une propagation vers l'avant et une rétropropagation). Par exemple, si l'ensemble de données se compose de 1 000 échantillons et que le modèle est formé à l'aide d'une taille de lot de 100, 10 époques sont nécessaires pour effectuer un passage sur l'ensemble de données.

Importance des époques dans la formation

Les époques jouent un rôle crucial dans le processus de formation des modèles d’apprentissage automatique. Ils sont directement liés à la capacité du modèle à apprendre et à généraliser à des données invisibles. Epoch est un hyperparamètre qui définit combien de fois l'algorithme d'apprentissage fonctionne sur l'ensemble des données d'entraînement. Un nombre d'époques trop faible peut entraîner un sous-ajustement du modèle, tandis qu'un nombre d'époques trop élevé peut entraîner un sur-ajustement.

Sélectionnez le numéro d'époque

La détermination du nombre d’époques est une étape critique dans la conception d’un réseau neuronal car elle affecte considérablement les performances du modèle. Si le nombre d'époques est trop petit, le modèle risque de ne pas avoir suffisamment de temps pour apprendre les modèles dans les données, ce qui entraîne de mauvaises performances du modèle. À l’inverse, si le numéro d’époque est trop élevé, le modèle peut être surajusté, ce qui signifie qu’il apprend le bruit dans les données d’entraînement, ce qui affecte négativement les performances sur les nouvelles données.

Arrêt anticipé

L’arrêt précoce est une technique utile pour éviter le surapprentissage. Il s’agit de surveiller les performances du modèle sur l’ensemble de validation et d’arrêter le processus de formation lorsque les performances commencent à se dégrader ou ne s’améliorent pas. Cette approche permet de trouver un bon équilibre entre le nombre d’époques à exécuter, garantissant que le modèle n’est ni sous-ajusté ni surajusté.

en conclusion

En résumé, les époques sont un élément fondamental du processus de formation des réseaux neuronaux et d’autres algorithmes d’apprentissage automatique. Ils représentent le nombre de fois où l'ensemble de données a été transmis à l'algorithme. Le nombre correct d’époques est crucial pour que le modèle apprenne efficacement sans surapprentissage. L'équilibrage du nombre d'époques avec d'autres hyperparamètres tels que la taille du lot et le taux d'apprentissage est essentiel pour créer des modèles d'apprentissage automatique puissants.

Références

【1】https://deepai.org/machine-learning-glossary-and-terms/epoch

【2】https://encord.com/glossary/epochs-definition/