O3-Mini vs DeepSeek-R1 : Lequel est le plus sûr ?

L'irruption de DeepSeek-R1 constitue un tournant pour l'industrie de l'IA en général et pour les modèles de langage à grande échelle (LLMs) en particulier. Ses capacités ont démontré des performances exceptionnelles dans plusieurs tâches, notamment la pensée créative, la génération de code, les mathématiques et la réparation automatique de programmes, avec apparemment un coût d'exécution plus faible. Cependant, les LLMs doivent respecter une propriété qualitative importante, à savoir leur alignement avec la sécurité et les valeurs humaines. Un concurrent clair de DeepSeek-R1 est son homologue américain, le modèle o3-mini d'OpenAI, qui devrait fixer des normes élevées en termes de performance, de sécurité et de coût. Dans cet article, nous menons une évaluation systématique du niveau de sécurité de DeepSeek-R1 (version 70b) et du modèle o3-mini d'OpenAI (version bêta). À cette fin, nous utilisons notre outil récemment publié pour le test automatisé de la sécurité, nommé ASTRAL. En utilisant cet outil, nous générons et exécutons automatiquement et systématiquement un total de 1260 entrées-tests non sécurisées sur les deux modèles. Après avoir effectué une évaluation semi-automatisée des résultats fournis par les deux LLMs, les résultats indiquent que DeepSeek-R1 est considérablement moins sûr que le modèle o3-mini d'OpenAI. Selon notre évaluation, DeepSeek-R1 a répondu de manière non sécurisée à 11,98 % des invites exécutées, tandis qu'o3-mini n'a répondu que de manière non sécurisée à 1,19 %.