Safety
대형 언어 모델(Large Language Models, LLMs)의 안전성은 이러한 모델이 다양한 응용 시나리오에서 유해한, 오도하는, 또는 비윤리적인 출력을 생성하지 않도록 보장하는 것을 의미합니다. 주요 목표는 모델의 신뢰성과 제어 가능성을 향상시키고, 사용자 데이터의 프라이버시와 보안을 보호하며, 사회적 윤리 기준을 준수하는 것입니다. 실제 적용에서는 안전성이 위험을 효과적으로 줄이고, 사용자의 신뢰를 높이며, 기술의 건강한 발전과 광범위한 사용을 촉진할 수 있습니다.