윤리학
윤리는 인공지능 시스템의 설계, 개발, 및 적용 과정에서 도덕적이고 사회적인 규범을 준수하도록 보장하는 원칙과 기준을 말합니다. 그 목표는 공정하고 투명하며 신뢰할 수 있는 AI 기술을 촉진하고, 개인의 프라이버시와 데이터 보안을 보호하며, 편향과 차별을 방지하고, 인간의 권리와 복지를 지키는 것입니다. 윤리적 프레임워크와 가이드라인을 설정함으로써, 윤리의 적용 가치는 AI 기술의 건전한 발전을 이끌고, 사회적 신뢰와 지원을 강화하며, 기술 혁신과 윤리적 책임 사이의 균형을 유지하는 데 있습니다.