2달 전

BioFLAIR: 의학 시퀀스 라벨링 작업을 위한事前訓練된 통합 컨텍스트 임베딩 注意:在韩文中,“事前訓練된”是“预训练的”的意思,但通常会写作“사전 훈련된”。因此,更正后的翻译如下: BioFLAIR: 의학 시퀀스 라벨링 작업을 위한 사전 훈련된 통합 컨텍스트 임베딩

Shreyas Sharma; Ron Daniel Jr
BioFLAIR: 의학 시퀀스 라벨링 작업을 위한事前訓練된 통합 컨텍스트 임베딩
注意:在韩文中,“事前訓練된”是“预训练的”的意思,但通常会写作“사전 훈련된”。因此,更正后的翻译如下:
BioFLAIR: 의학 시퀀스 라벨링 작업을 위한 사전 훈련된 통합 컨텍스트 임베딩
초록

생물의학적 명명된 개체 인식(Biomedical Named Entity Recognition, NER)은 문맥 외 용어의 광범위한 모호성과 어휘 변동성으로 인해 생물의학 정보 처리에서 어려운 문제입니다. BERT, GPT, XLNet 등의 발전으로 인해 bioNER 벤치마크 성능이 지속적으로 향상되고 있습니다. FLAIR(1)는 다른 언급된 모델들보다 계산적으로 덜 집약적인 대안 임베딩 모델입니다. 우리는 다양한 생물 NER 작업에서 FLAIR와 사전 학습된 PubMed 임베딩(우리가 BioFLAIR라고 부르는 것)을 테스트하고, 이를 BERT 유형 네트워크의 결과와 비교합니다. 또한 우리는 PubMed 콘텐츠에 대한 소량의 추가 사전 학습 및 FLAIR와 ELMO 모델의 결합 효과를 조사합니다. 제공된 임베딩을 사용할 때 FLAIR는 BERT 네트워크와 비슷한 성능을 보였으며, 한 벤치마크에서는 새로운 최고 수준의 성능을 달성하기도 하였습니다. 추가 사전 학습은 명확한 이점을 제공하지 않았지만, 더 많은 사전 학습이 이루어질 경우 이 점이 바뀔 수도 있습니다. FLAIR 임베딩을 다른 임베딩과 결합하면 일반적으로 벤치마크 결과가 향상되는 경향이 있습니다.

BioFLAIR: 의학 시퀀스 라벨링 작업을 위한事前訓練된 통합 컨텍스트 임베딩 注意:在韩文中,“事前訓練된”是“预训练的”的意思,但通常会写作“사전 훈련된”。因此,更正后的翻译如下: BioFLAIR: 의학 시퀀스 라벨링 작업을 위한 사전 훈련된 통합 컨텍스트 임베딩 | 최신 연구 논문 | HyperAI초신경