Modèles GenAI open source désormais sécurisés pour l’entreprise, selon une évaluation révolutionnaire
Une nouvelle évaluation menée par LatticeFlow AI en collaboration avec SambaNova apporte les premières preuves quantitatives selon lesquelles les modèles open-source de génération d’intelligence artificielle (GenAI), lorsqu’ils sont dotés de mesures de sécurité ciblées, peuvent atteindre ou dépasser les niveaux de sécurité des modèles fermés. Ces résultats les rendent adaptés à une adoption à grande échelle dans des secteurs fortement réglementés, comme les services financiers. L’étude a évalué les cinq principaux modèles open-source disponibles, en mesurant leur sécurité dans deux configurations : d’abord en version de base, telle qu’utilisée par défaut, puis après l’application de garde-fous spécifiques — une couche de filtrage d’entrée conçue pour bloquer les prompts malveillants ou manipulatoires. Les scores de sécurité ont ainsi bondi de 1,8 % à 99,6 %, tout en maintenant une qualité de service supérieure à 98 %. Ces résultats démontrent que, grâce à des contrôles adéquats, les modèles open-source sont viables pour des déploiements sécurisés à l’échelle entreprise. Cette avancée est cruciale pour les organisations qui cherchent à éviter le verrouillage aux fournisseurs, à réduire leurs coûts et à accélérer l’innovation grâce à une personnalisation accrue. Pourtant, malgré cet intérêt croissant, l’adoption a souvent été freinée par un manque de données concrètes sur la sécurité réelle des modèles open-source. « Chez LatticeFlow AI, nous offrons les contrôles techniques les plus poussés pour évaluer la sécurité et la performance des modèles GenAI », affirme Dr. Petar Tsankov, PDG et co-fondateur de LatticeFlow AI. « Ces résultats apportent la clarté dont les responsables de l’IA, du risque et de la conformité ont besoin pour adopter les modèles open-source en toute confiance. » Harry Ault, Directeur des ventes chez SambaNova, ajoute : « Nos clients, notamment des institutions financières de premier plan et des agences gouvernementales, adoptent rapidement les modèles open-source et les infrastructures d’inference accélérées pour alimenter leurs prochaines générations d’applications agiles. Cette évaluation confirme qu’avec les bonnes protections, ces modèles sont prêts à être déployés dans des environnements réglementés, offrant des avantages transformateurs en matière de coût, de personnalisation et de gouvernance responsable de l’IA. » Les tests se sont concentrés sur des risques cybernétiques réels, en simulant des scénarios d’attaque courants dans les entreprises, comme les injections de prompts ou les tentatives de manipulation. Le fait que tous les modèles aient conservé une qualité de service supérieure à 98 % montre que la sécurité n’a pas été compromise au détriment de l’expérience utilisateur. Pour les institutions financières, ces résultats sont particulièrement significatifs. Alors que l’IA générative passe de l’expérimentation au déploiement opérationnel, les exigences en matière de traçabilité, de contrôle et de sécurité prouvée s’intensifient. Cette évaluation fournit une preuve transparente et mesurable que les modèles open-source peuvent répondre à ces attentes, à condition d’être correctement protégés. LatticeFlow AI, créateur du cadre COMPL-AI — le premier au monde conforme au Règlement sur l’IA de l’Union européenne, développé avec ETH Zurich et INSAIT — incarne une approche fondée sur la rigueur scientifique et la précision suisse pour gouverner l’IA de manière responsable, transparente et fondée sur des preuves.