Sentence Transformers重磅登陆Hugging Face,赋能AI文本理解新体验
今天,Hugging Face正式宣布,知名开源项目Sentence Transformers将从德国达姆施塔特工业大学的Ubiquitous Knowledge Processing(UKP)实验室迁入Hugging Face。自2023年底起,Hugging Face的Tom Aarsen已负责该项目的维护工作,未来将继续担任核心负责人。此次迁移后,Sentence Transformers将依托Hugging Face强大的基础设施,包括持续集成与测试系统,确保其持续紧跟信息检索与自然语言处理领域的最新进展。 Sentence Transformers(又称SentenceBERT或SBERT)自2019年由Nils Reimers在UKP实验室提出以来,已成为生成高质量语义嵌入的行业标准工具。它通过孪生网络架构,有效解决了传统BERT在句子级语义任务中的局限,广泛应用于语义搜索、文本相似度计算、聚类和释义挖掘等场景。经过多年发展,该项目已拥有超过16,000个公开模型,每月服务超百万独立用户。 UKP实验室负责人Iryna Gurevych教授表示:“Sentence Transformers是实验室长期研究的结晶,Nils Reimers的发现极具前瞻性,不仅推动了学术进步,更打造了一个真正实用的工具,影响了无数研究者与从业者。感谢所有用户与贡献者,也感谢Tom和Hugging Face为项目未来保驾护航。” Hugging Face方面表示:“我们非常高兴正式迎来Sentence Transformers加入Hugging Face大家庭。过去两年,项目在全球范围迅速普及,离不开UKP实验室的坚实基础和社区的共同努力。未来我们将持续投入资源,推动其创新与成长,同时坚守开源、协作的核心精神。” 项目将继续保持Apache 2.0开源许可,鼓励全球研究者、开发者和爱好者参与贡献。其核心理念——透明、开放、可及——将始终不变。 自2019年诞生以来,Sentence Transformers不断演进:2020年实现多语言支持,覆盖400多种语言;2021年引入交叉编码器(Cross Encoder)与配对评分功能;2023年完成v3.0现代化训练体系升级,并推出v4.0交叉编码器与v5.0稀疏编码器。这些进展均得益于UKP实验室在德国研究基金会(DFG)、联邦教研部(BMBF)及黑森州高等教育与科研部门支持下的长期投入。 Hugging Face特别感谢UKP实验室、Nils Reimers、Iryna Gurevych以及全体贡献者,以及全球社区在模型开发、问题反馈、文档优化和实际应用中的持续支持。未来,双方将继续携手,推动语义表示技术迈向新高度。
