HyperAIHyperAI

Command Palette

Search for a command to run...

Hugging Face et VirusTotal s’associent pour sécuriser l’écosystème de l’IA ouverte

Nous sommes fiers d’annoncer une nouvelle collaboration entre Hugging Face et VirusTotal, la plateforme mondiale leader en intelligence sur les menaces et analyse de logiciels malveillants. Cette collaboration renforce la sécurité des fichiers partagés sur le Hugging Face Hub, protégeant ainsi la communauté du machine learning contre les ressources malveillantes ou compromises. En résumé : à partir d’aujourd’hui, tous les 2,2 millions de dépôts publics contenant des modèles et des jeux de données sur le Hub Hugging Face sont scannés en continu via VirusTotal. Pourquoi cela compte Les modèles d’intelligence artificielle sont des outils puissants, mais aussi des artefacts numériques complexes, pouvant inclure de grands fichiers binaires, des données sérialisées et des dépendances potentiellement risquées. Aujourd’hui, le Hub Hugging Face héberge plus de 2,2 millions de modèles publics. Alors que nous continuons à devenir la plus grande plateforme ouverte au monde pour les modèles et jeux de données de machine learning, garantir la sécurité des ressources partagées est essentiel. Les menaces peuvent prendre diverses formes : fichiers malveillants intégrés dans des modèles, dépendances compromis, ou scripts cachés dans des fichiers de configuration. Grâce à cette collaboration, nous ajoutons une couche supplémentaire de protection et de transparence en faisant vérifier automatiquement chaque fichier partagé sur le Hub contre la base de données de menace la plus vaste et la plus fiable au monde. Comment cela fonctionne À chaque fois que vous accédez à la page d’un dépôt, d’un fichier ou d’un répertoire sur le Hub, le système récupère automatiquement les résultats d’analyse de VirusTotal concernant les fichiers en question. Par exemple, si un fichier est signalé comme malveillant par plusieurs moteurs antivirus, cette information apparaît directement dans la page du dépôt, accompagnée d’un avertissement clair. Cela fournit aux utilisateurs et aux organisations une visibilité immédiate sur les risques potentiels avant de télécharger ou d’intégrer un modèle ou un jeu de données. Avantages pour la communauté Cette intégration renforce la confiance dans les ressources partagées sur le Hub. Elle permet aux chercheurs, développeurs et entreprises de collaborer en toute sécurité, tout en maintenant l’esprit d’ouverture qui caractérise l’écosystème de l’IA open source. Rejoignez-nous Si vous souhaitez en savoir plus sur cette intégration ou explorer des moyens de contribuer à un écosystème de l’IA open source plus sûr, n’hésitez pas à contacter [email protected]. Ensemble, nous pouvons faire en sorte que la collaboration en IA soit non seulement ouverte, mais aussi sécurisée par conception.

Liens associés