Command Palette

Search for a command to run...

UCIT 연속 교육 튜닝 데이터 세트

날짜

2달 전

크기

6.07 GB

기관

중국과학원(중국과학원)
중국과학원 대학교

논문 URL

2503.12941

라이선스

CC BY 4.0

UCIT는 정식 명칭이 Unseen Continual Instruction Tuning으로, 중국과학원 자동화연구소, 첨단학제과학대학, 중국과학원 인공지능대학이 2025년에 공동으로 발표한 다중모달 대규모 언어 모델의 지속적 명령어 튜닝을 위한 벤치마크 데이터 세트입니다.HiDe-LLaVA: 다중 모드 대규모 언어 모델의 연속적 명령 튜닝을 위한 계층적 분리".

이 데이터셋은 엄선된 6개의 작업 하위 집합으로 구성되어 있으며, 각 하위 집합은 지도 학습 미세 조정 과정에서 모델이 접하지 못한 작업 유형에 해당합니다. 이러한 하위 집합들을 통해 모델의 적응성과 구조 보존 능력을 공정하게 평가하는 데 사용할 수 있는 까다로운 "미확인 작업" 테스트 집합을 형성합니다. 각 예시는 작업 프롬프트/명령과 그에 상응하는 예상 정답 실행(실제 응답)으로 구성되며, 이는 제로샷 조건에서 모델의 성능을 측정하는 데 사용됩니다.

UCIT.torrent
시딩 1다운로드 중 0완료됨 9총 다운로드 횟수 23
  • UCIT/
    • README.md
      1.65 KB
    • README.txt
      3.3 KB
      • data/
        • UCIT.zip
          6.07 GB

AI로 AI 구축

아이디어에서 출시까지 — 무료 AI 공동 코딩, 즉시 사용 가능한 환경, 최적 가격 GPU로 AI 개발을 가속화하세요.

AI 공동 코딩
즉시 사용 가능한 GPU
최적 가격
시작하기

Hyper Newsletters

최신 정보 구독하기
한국 시간 매주 월요일 오전 9시 에 이번 주의 최신 업데이트를 메일로 발송합니다
이메일 서비스 제공: MailChimp
UCIT 연속 교육 튜닝 데이터 세트 | 데이터셋 | HyperAI초신경