HyperAI

Safety

La sécurité dans le contexte des grands modèles de langage (LLMs) consiste à garantir que ces modèles ne produisent pas de contenus nuisibles, trompeurs ou éthiquement inacceptables dans divers scénarios d'application. L'objectif principal est d'évaluer et d'optimiser systématiquement les modèles afin d'améliorer leur fiabilité et leur contrôlabilité, de protéger la confidentialité et la sécurité des données des utilisateurs, et de respecter les normes éthiques sociales. Dans les applications pratiques, la sécurité peut réduire efficacement les risques, augmenter la confiance des utilisateurs et favoriser le développement sain et l'adoption généralisée de la technologie.