HyperAIHyperAI

Command Palette

Search for a command to run...

Console

Décomposition biais-variance

Date

il y a 6 ans

La décomposition biais-variance est un outil permettant d'expliquer les performances de généralisation d'un algorithme d'apprentissage du point de vue du biais et de la variance. Il est défini comme suit :

Supposons qu'il existe K ensembles de données, chacun d'entre eux étant extrait indépendamment d'une distribution p(t,x) (t représente la variable à prédire et x représente la variable caractéristique).

Différents modèles peuvent être obtenus en s'entraînant sur différents ensembles de données. La performance de l'algorithme d'apprentissage est mesurée par la performance moyenne des K modèles entraînés sur ces K ensembles de données, soit :

Ici, h(x) représente la vraie fonction qui génère les données, c'est-à-dire t=h(x).

Construire l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec co-codage IA gratuit, environnement prêt à l'emploi et meilleur prix de GPU.

Co-codage avec IA
GPU prêts à l'emploi
Meilleurs prix

Hyper Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Décomposition biais-variance | Wiki | HyperAI