HyperAIHyperAI

Command Palette

Search for a command to run...

Découpler la prise de décision dans la prévention de la fraude grâce à l’ajustement des classifieurs pour les actions de logique métier

Emanuele Luzio Moacir Antonelli Ponti* Christian Ramirez Arevalo Luis Argerich

Résumé

Les modèles d'apprentissage automatique (machine learning, ML) se concentrent généralement sur des objectifs spécifiques tels que la création de classifieurs, souvent basés sur les distributions connues des caractéristiques de la population dans un contexte d'entreprise. Cependant, les modèles calculant des caractéristiques individuelles s'adaptent au fil du temps pour améliorer la précision, introduisant ainsi le concept de découplage : passage de l'évaluation ponctuelle à la distribution des données. Nous utilisons des stratégies de calibration comme méthode pour découpler les classifieurs d'apprentissage automatique (ML) des actions basées sur les scores au sein des cadres logiques d'entreprise. Pour évaluer ces stratégies, nous effectuons une analyse comparative en utilisant un scénario d'entreprise réel et plusieurs modèles d'apprentissage automatique (ML). Nos résultats mettent en lumière les compromis et les implications sur les performances de cette approche, offrant des insights précieux aux praticiens souhaitant optimiser leurs efforts de découplage. En particulier, les méthodes de calibration isotone et bêta se distinguent dans les scénarios où il existe un décalage entre les données d'entraînement et celles de test.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp