HyperAIHyperAI超神経
ホームニュース論文チュートリアルデータセット百科事典SOTALLMモデルGPU ランキング学会
検索
サイトについて
日本語
HyperAIHyperAI超神経
  1. ホーム
  2. SOTA
  3. 関係抽出
  4. Relation Extraction On Chemprot

Relation Extraction On Chemprot

評価指標

Micro F1

評価結果

このベンチマークにおける各モデルのパフォーマンス結果

モデル名
Micro F1
Paper TitleRepository
CharacterBERT (base, medical)73.44CharacterBERT: Reconciling ELMo and BERT for Word-Level Open-Vocabulary Representations From Characters-
BioM-BERT-BioM-Transformers: Building Large Biomedical Language Models with BERT, ALBERT and ELECTRA
SciBert (Finetune)-SciBERT: A Pretrained Language Model for Scientific Text-
SciBERT (Base Vocab)-SciBERT: A Pretrained Language Model for Scientific Text-
ELECTRAMed-ELECTRAMed: a new pre-trained language representation model for biomedical NLP-
PubMedBERT uncased77.24Domain-Specific Language Model Pretraining for Biomedical Natural Language Processing-
SciFive Large-SciFive: a text-to-text transformer model for biomedical literature-
BioLinkBERT (large)79.98LinkBERT: Pretraining Language Models with Document Links-
KeBioLM-Improving Biomedical Pretrained Language Models with Knowledge-
BioMegatron-BioMegatron: Larger Biomedical Domain Language Model-
BioT5X (base)-SciFive: a text-to-text transformer model for biomedical literature-
BioBERT-BioBERT: a pre-trained biomedical language representation model for biomedical text mining-
NCBI_BERT(large) (P)-Transfer Learning in Biomedical Natural Language Processing: An Evaluation of BERT and ELMo on Ten Benchmarking Datasets-
0 of 13 row(s) selected.
HyperAI

学習、理解、実践、コミュニティと共に人工知能の未来を構築する

日本語

サイトについて

私たちについてデータセットヘルプ

プロダクト

ニュースチュートリアルデータセット百科事典

リンク

TVM 中国語Apache TVMOpenBayes

© HyperAI超神経

TwitterBilibili