Command Palette

Search for a command to run...

3달 전

사전 훈련된 BERT 임베딩을 활용한 캡슐 신경망의 유해 댓글 분류 효과성 평가

{Tashin Ahmed Noor Hossain Nuri Sabab Habibur Rahman Sifat}

초록

대규모 언어 모델(Large language models, LLMs)이 자연어 이해(Natural language understanding, NLU) 및 자연어 생성(Natural language generation, NLG) 분야에서 소개된 이후 큰 관심을 끌고 있다. 반면, 캡슐 신경망(Capsule Neural Networks, CapsNet)의 유산은 이러한 열기 속에서 거의 잊혀진 듯한 모습을 보이고 있다. 본 연구의 목적은 기존에 닫혀 있던 연구를 재개하고, CapsNet의 잠재력을 탐색하는 새로운 연구를 통해 CapsNet에 대한 관심을 되살리는 것이다. 본 연구에서는 대규모 다국어 데이터셋을 기반으로 사전 학습된 BERT 임베딩(bert-base-uncased)을 활용하여 CapsNet을 유해 텍스트 분류에 적용하는 사례를 제시한다. 이 실험에서 CapsNet은 유해 텍스트를 분류하는 임무에 직면하게 되었으며, DistilBERT, 일반 신경망(Vanilla Neural Networks, VNN), 합성곱 신경망(Convolutional Neural Networks, CNN)과 같은 다른 아키텍처들과의 성능을 비교함으로써 90.44%의 정확도를 달성하였다. 이 결과는 CapsNet이 텍스트 데이터 처리에 있어 유리한 점을 보여주며, DistilBERT 및 기타 축소형 아키텍처와 경쟁 가능한 성능을 발휘할 수 있도록 향상시킬 수 있는 새로운 방향성을 제시한다.

벤치마크

벤치마크방법론지표
toxic-comment-classification-on-jigsaw-toxicCapsNet
Validation Accuracy: 90.44

AI로 AI 구축

아이디어에서 출시까지 — 무료 AI 공동 코딩, 즉시 사용 가능한 환경, 최적 가격 GPU로 AI 개발을 가속화하세요.

AI 공동 코딩
즉시 사용 가능한 GPU
최적 가격
시작하기

Hyper Newsletters

최신 정보 구독하기
한국 시간 매주 월요일 오전 9시 에 이번 주의 최신 업데이트를 메일로 발송합니다
이메일 서비스 제공: MailChimp
사전 훈련된 BERT 임베딩을 활용한 캡슐 신경망의 유해 댓글 분류 효과성 평가 | 연구 논문 | HyperAI초신경