교육 비용을 절반으로 절감하세요! OmniConsistency는 2.6K 이미지로 SOTA 결과를 달성하고, Wan2.1-VACE-14B는 비디오 생성의 새로운 차원을 열어줍니다.

디지털 비전 기술이 급속도로 발전함에 따라 오픈소스 모델은 이미지 스타일화 분야에서 획기적인 발전을 이루었습니다. 그러나 스타일화 일관성 측면에서 상용 모델과는 여전히 상당한 격차가 존재합니다. 이러한 기술적 병목 현상을 극복하기 위해 Show Lab은 대규모 확산 변환기를 기반으로 구축된 일관성 플러그인인 OmniConsistency를 혁신적으로 출시했습니다. 이 플러그인은 오픈소스 방식과 상용 모델 간의 성능 격차를 메우는 것을 목표로 합니다.
OmniConsistency는 스타일 학습과 일관성을 분리하기 위해 2단계의 점진적 학습 전략을 채택하여 스타일 저하 문제를 효과적으로 완화합니다.최신 상업용 모델인 GPT-4o와 비슷한 성능을 달성하여 시각적 일관성과 미적 품질을 크게 향상시켰습니다.
또한 연구팀은 모델 학습과 평가를 지원하기 위해 OmniConsistency 양식화된 이미지 쌍 데이터 세트도 구축했습니다.이 데이터 세트는 GPT-4o를 사용하여 22가지 서로 다른 예술적 스타일의 입력 이미지를 합성하고, 다양한 창의적 요구를 충족하기 위해 소스 이미지와 양식화된 이미지에 대한 해당 설명적 텍스트 주석을 생성합니다.
현재 HyperAI는 "OmniConsistency: GPT-4o 레벨 문자 스타일 변환 모델"과 "OmniConsistency 스타일 이미지 쌍 데이터세트"를 출시했습니다. 지금 바로 사용해 보세요~
OmniConsistency: GPT-4o 수준 문자 스타일 전송 모델
온라인 사용:https://go.hyper.ai/WU5fY
OmniConsistency 양식화된 이미지 쌍 데이터 세트
온라인 사용:https://go.hyper.ai/RxZk9
6월 9일부터 6월 13일까지 hyper.ai 공식 웹사이트가 업데이트됩니다.
* 고품질 공개 데이터 세트: 10
* 고품질 튜토리얼: 13개
* 이번 주 추천 논문 : 5
* 커뮤니티 기사 해석 : 4개 기사
* 인기 백과사전 항목: 5개
* 6월과 7월에 마감일이 있는 상위 컨퍼런스: 6
공식 웹사이트를 방문하세요:하이퍼.AI
선택된 공개 데이터 세트
1. OpenThoughts3-1.2M 추론 데이터 세트
OpenThoughts3-1.2M은 850,000개의 수학 문제, 250,000개의 코드 문제, 100,000개의 과학 문제를 포함하는 오픈 소스 추론 데이터 세트이며, 주석은 QwQ-32B 모델을 사용하여 완성되었습니다.
직접 사용:https://go.hyper.ai/1u77Q

2. OpenThoughts2-1M 추론 데이터 세트
이 데이터셋은 OpenThoughts-114k 데이터셋을 기반으로 OpenR1 및 기타 수학 및 코드 추론 데이터와 같은 기존 데이터셋을 추가했습니다. 이 데이터셋에는 수학, 과학, 코드, 퍼즐을 아우르는 100만 개의 고품질 예제가 포함되어 있습니다. 이 데이터셋으로 학습된 OpenThinker2 모델의 성능은 DeepSeek-R1-Distill 모델과 유사합니다.
직접 사용:https://go.hyper.ai/FK1Z3

3. OmniConsistency 양식화된 이미지 쌍 데이터 세트
OmniConsistency는 이미지 스타일화 및 크로스 모달 일관성 학습에 중점을 둔 대규모 다중 스타일 이미지 쌍 데이터셋으로, 이미지 생성, 스타일 전환 및 다중 모달 모델 학습을 위한 표준화된 리소스를 제공하는 것을 목표로 합니다. 이 데이터셋은 만화, 유화, 전통 미술, 픽셀 아트 등 22가지 다양한 예술 스타일을 포괄하여 다양한 창의적 요구를 충족합니다.
직접 사용:https://go.hyper.ai/RxZk9
4. Nemotron-Personas 캐릭터 데이터 세트
이 데이터셋은 실제 인구 통계, 지리적 분포, 그리고 성격 특성을 기반으로 인공적으로 합성된 문자를 포함하고 있으며, 인구의 다양성과 풍요로움을 포착하도록 설계되었습니다. 이름, 성별, 나이, 배경, 결혼 여부, 교육, 직업, 거주지 등의 속성과 관련된 통계를 보유한 최초의 데이터셋입니다.
직접 사용:https://go.hyper.ai/uwpRH
5. VCBench 수학적 추론 벤치마크 데이터 세트
VCBench는 명시적인 시각적 종속성을 갖는 다중 모드 수학적 추론을 평가하도록 설계된 벤치마크 데이터셋입니다. 이 데이터셋은 1,720개의 질문-답변 쌍과 총 6,697개의 이미지를 포함합니다.
직접 사용:https://go.hyper.ai/4Ck1t
6. AudioTrust 오디오 벤치마크 데이터 세트
이 데이터셋은 대규모 오디오-텍스트 벤치마크 데이터셋입니다. 대규모 오디오 모델에 맞춰 개발된 최초의 다차원 신뢰도 평가 벤치마크인 AudioTrust는 오디오 대규모 언어 모델(ALLM)의 다차원 신뢰성 평가에 중점을 둡니다.
직접 사용:https://go.hyper.ai/WgJSW
7. LEXam 법적 추론 벤치마크 데이터 세트
이 데이터세트는 스위스 취리히 대학교 법학대학원의 다양한 과정 및 수준(학부 및 석사)에서 출제된 340개의 실제 법률 시험 문제를 포함하고 있으며, 스위스법, 유럽법, 국제법, 법이론 및 법사 분야를 다룹니다. 이 데이터세트는 2,841개의 장문 문제와 2,045개의 객관식 문제를 포함하여 총 4,886개의 문제를 포함하고 있습니다.
직접 사용:https://go.hyper.ai/qYpoL
8. ReasonMap 트래픽 그래프 추론 벤치마크 데이터 세트
ReasonMap은 이미지 내 공간 관계와 경로 추론을 강조합니다. 고해상도 교통 지도(주로 지하철 노선도)에 초점을 맞춘 최초의 다중 모드 추론 벤치마크로, 대형 모델이 이미지 내 세밀하게 구조화된 공간 정보를 이해하는 능력을 평가하도록 설계되었습니다.
직접 사용:https://go.hyper.ai/5ejzs
9. 중국어-LiPS 다중 모달 음성 인식 데이터 세트
Chinese-LiPS는 "입술 읽기 정보 + 슬라이드 의미 정보"를 결합한 최초의 중국어 다중 모달 음성 인식 데이터 세트로서, 중국어 설명, 대중 과학, 교육 및 지식 보급과 같은 복잡한 맥락을 포괄하며 중국어 다중 모달 음성 인식 기술 개발을 촉진하는 데 전념하고 있습니다.
직접 사용:https://go.hyper.ai/uaDMt
10. 뇌종양 데이터 세트
이 데이터셋은 뇌종양 MRI 분할 및 분류 데이터셋으로, 뇌종양 의료 영상 분석에 고품질 데이터 지원을 제공하고 뇌종양 분할 및 분류 작업에 적합합니다. 이 데이터는 약 5,000개의 MRI 슬라이스를 포함합니다.
직접 사용:https://go.hyper.ai/8qq5w
선택된 공개 튜토리얼
이번 주에는 고품질 공개 튜토리얼을 4가지 범주로 요약했습니다.
* 비디오 생성 튜토리얼: 3
* 이미지 처리 튜토리얼: 3
*음성 생성 튜토리얼: 2
*대규모 모델 배포 튜토리얼: 2
*과학 튜토리얼을 위한 AI: 2
비디오 생성지도 시간
1. ComfyUI Hunyuan 사용자 정의 비디오 생성 워크플로 튜토리얼
HunyuanCustom은 다중 모달 커스텀 비디오 생성 프레임워크로, Hunyuan 비디오 생성 프레임워크를 기반으로 주제 일관성을 중시하는 다중 모달 조건부 제어 가능 생성 모델입니다. 텍스트, 이미지, 오디오 및 비디오 입력을 조건으로 주제 일관성이 유지되는 비디오 생성을 지원합니다. HunyuanCustom의 다중 모달 기능을 통해 다양한 후속 작업을 수행할 수 있습니다.
이 튜토리얼에서는 RTX 4090 카드 하나를 리소스로 사용하며, 비디오 생성에는 약 10분이 소요됩니다. 더 나은 생성 품질을 위해서는 80GB 메모리의 GPU를 사용하는 것이 좋습니다.
온라인으로 실행:https://go.hyper.ai/Vw6bJ

2. ComfyUI Wan2.1-VACE-14B 이미지를 비디오로 변환하는 워크플로 튜토리얼
이 모델은 Tongyi Wanxiang V2.1 기반으로 학습되었으며, 업계 최초로 여러 작업을 유연하게 조합하여 사용할 수 있는 비디오 AI 도구입니다. 비디오 생성부터 정교한 편집까지 모든 과정을 원스톱으로 완료할 수 있습니다. 텍스트를 비디오로, 이미지를 비디오로, 첫 프레임과 마지막 프레임을 비디오로 변환하는 등의 기능을 지원합니다.
이 튜토리얼에서는 A6000 카드 한 장을 사용합니다. 비디오 하나를 생성하는 데 약 30분이 걸립니다. 더 높은 컴퓨팅 성능을 사용하는 것을 권장합니다.
온라인으로 실행:https://go.hyper.ai/4ULKi
3. Vchitect-2.0 비디오 확산 모델 데모
이 모델은 20억 개의 매개변수를 갖춘 혁신적인 병렬 트랜스포머 아키텍처 설계를 사용하여 텍스트 프롬프트를 기반으로 부드럽고 고품질의 비디오 콘텐츠를 생성할 수 있습니다.
이 튜토리얼에서는 단일 카드 A6000을 리소스로 사용하는데, 이를 한 번의 클릭으로 배포하여 사용자 지정 비디오를 생성할 수 있습니다.
온라인으로 실행:https://go.hyper.ai/r6OC2
이미지 처리 튜토리얼
1. JoyCaption 베타 1 자막 시각 언어 모델 데모
이 모델은 다양한 이미지 스타일, 콘텐츠, 인종, 성별, 성적 지향을 포괄하며, 세상의 모든 측면을 이해하기 위한 최소한의 필터링을 적용하면서도 불법적인 콘텐츠는 지원하지 않습니다. 사용자는 다양한 모드와 프롬프트를 사용하여 소셜 미디어 게시물, 제품 목록 등 다양한 애플리케이션 시나리오에 대한 설명 캡션을 생성할 수 있습니다.
이 튜토리얼에서는 RTX 4090 카드 하나를 리소스로 사용합니다. 링크를 입력하시면 콘텐츠에 딱 맞는 자막을 생성해 드립니다~
온라인으로 실행:https://go.hyper.ai/13wrE
2. 무엇이든 설명하는 모델 데모
이 모델은 사용자가 지정한 영역(점, 상자, 낙서 또는 마스크)을 기반으로 상세한 설명을 생성할 수 있습니다. 비디오 콘텐츠의 경우, 어떤 프레임에서든 해당 영역에 주석을 달기만 하면 완전한 설명을 얻을 수 있습니다.
이 튜토리얼에서는 RTX 4090 카드 하나를 리소스로 사용합니다. 클릭 한 번으로 배포하고, 설명이 필요한 부분을 클릭하기만 하면 됩니다.
온라인으로 실행:https://go.hyper.ai/aitMs
3. OmniConsistency: GPT-4o 수준 문자 스타일 전송 모델
OmniConsistency는 시각적 일관성과 미적 품질을 크게 향상시켜 최첨단 상용 모델인 GPT-4o에 필적하는 성능을 제공합니다. 스타일 일관성 측면에서 오픈 소스 모델과 상용 모델 간의 성능 격차를 메우고, AI 생성을 위한 저렴하면서도 제어력이 뛰어난 솔루션을 제공하며, 이미지 생성 기술의 민주화를 촉진합니다. 또한, 호환성과 플러그 앤 플레이 기능을 통해 개발자와 제작자가 OmniConsistency를 사용하는 데 있어 제약이 적습니다.
이 튜토리얼의 컴퓨팅 리소스는 RTX A6000 카드 1개를 사용합니다. 링크를 입력하여 나만의 작품을 만들어 보세요~
온라인으로 실행:https://go.hyper.ai/WU5fY

음성 생성 튜토리얼
1. Stable-audio-open-small: 오디오 생성 모델 데모
Stable-audio-open-small은 고품질 단편 오디오 콘텐츠를 효율적으로 제작하는 데 중점을 둡니다. 고급 확산 모델 기술을 기반으로 사용자가 텍스트 프롬프트를 통해 음악 클립, 음향 효과, 주변 소리(예: 드럼 루프, 멜로디 클립, 자연스러운 사운드스케이프) 등 다양한 오디오를 빠르게 생성할 수 있도록 지원합니다. 이는 음악 제작, 게임 개발, 영화 및 TV 사운드트랙 등 다양한 시나리오에 적합합니다.
이 튜토리얼에서는 단일 카드 A6000에 대한 리소스를 활용하고, 한 번의 클릭으로 배포하여 독점 음악을 제작합니다!
온라인으로 실행:https://go.hyper.ai/jl9Y3
2. Chatterbox TTS: 음성 합성 데모
Chatterbox는 과장된 감정 제어를 지원하는 최초의 오픈소스 TTS 모델입니다. 5억 개의 매개변수를 가진 LLaMA 아키텍처를 기반으로 하며, 50만 시간 이상의 선별된 오디오 데이터를 사용하여 학습되었습니다. 다국어 및 다음색 생성을 지원하며, ElevenLabs와 같은 폐쇄형 소스 시스템보다 뛰어난 성능을 자랑합니다. 핵심 기능 중 하나는 제로 샘플 음성 복제로, 복잡한 학습 과정 없이 단 5초 분량의 참조 오디오만으로도 매우 사실적인 개인 맞춤형 음성을 생성할 수 있습니다.
이 튜토리얼에 사용된 컴퓨팅 리소스는 RTX 4090 카드 한 대입니다. 모델 프롬프트는 영어만 지원합니다. 클릭 한 번으로 나만의 음성을 복제해 보세요.
온라인으로 실행:https://go.hyper.ai/KAF8중
대규모 모델 배포 튜토리얼
1. DeepSeek-R1-0528-Qwen3-8B의 원클릭 배포
이 모델은 80억 개의 매개변수를 가지고 있습니다. DeepSeek-R1-0528의 복잡한 추론 기능을 더 작은 Qwen3-8B 기반 모델에 통합함으로써, Qwen3의 다국어 기능과 DeepSeek-R1의 추론 최적화 기능을 결합했습니다. GPT-4와 유사한 성능을 제공하며, 효율적인 단일 카드 배포를 지원하여 학술 및 기업 애플리케이션에 이상적인 선택입니다.
이 튜토리얼에서 사용된 컴퓨팅 리소스는 RTX 4090 카드 한 장입니다. 링크를 입력하면 클릭 한 번으로 향상된 대형 모델을 배포할 수 있습니다.
온라인으로 실행:https://go.hyper.ai/UnQEa
2. vLLM+Open WebUI는 AM-Thinking-v1 고밀도 언어 모델을 배포합니다.
AM-Thinking-v1은 추론 능력 향상에 중점을 둔 32B 고밀도 언어 모델입니다. 이 모델은 DeepSeek-R1, Qwen3-235B-A22B, Seed1.5-Thinking과 같은 대규모 MoE 모델 및 Nemotron-Ultra-253B-v1과 같은 더 큰 고밀도 모델과 유사한 추론 벤치마크에서 뛰어난 성능을 보여줍니다.
이 튜토리얼에서는 듀얼 카드 A6000 리소스를 사용하여 32B 고밀도 언어 모델을 한 번의 클릭으로 복제할 수 있습니다!
온라인으로 실행:https://go.hyper.ai/mbAMu
과학을 위한 AI 지도 시간
1. VASP 머신 러닝 힘장 미세 조정
VASP는 전자 구조 계산 및 양자 역학, 분자 동역학과 같은 기본 원리를 기반으로 원자 규모의 물질 모델링을 위한 컴퓨터 프로그램입니다. 이 튜토리얼에서는 머신 러닝 하이퍼파라미터를 지속적으로 변경하여 일련의 해당 포논 스펙트럼을 생성하고, 이에 상응하는 최적의 머신 러닝 힘장 매개변수 파일을 얻습니다.
온라인으로 실행:https://go.hyper.ai/2DmyQ
2. VASP 머신 러닝 힘장은 실리콘 포논 스펙트럼을 계산합니다.
Phonopy는 고조파 및 준고조파 레벨에서 포논 밴드 구조, 열 특성, 군속도 및 기타 포논 관련 값을 계산하는 Python 툴킷입니다. 이 튜토리얼에서는 자동화된 스크립트를 사용하여 머신 러닝 힘장 포논 스펙트럼의 계산 과정을 보여줍니다.
온라인으로 실행:https://go.hyper.ai/tmnQ4
이번 주 논문 추천
1. MiMo-VL 기술 보고서
이 글에서는 일반적인 시각적 이해와 다중 모드 추론에서 최고 수준의 성능을 달성하는 강력한 시각 언어 모델인 MiMo-VL-7B-SFT와 MiMo-VL-7B-RL, 두 가지 오픈 소스 모델을 소개합니다. MiMo-VL-7B-RL은 평가 대상 40개 과제 중 35개에서 Qwen2.5-VL-7B를 능가하며, OlympiadBench에서 59.4점을 기록하여 최대 780억 개의 매개변수를 가진 모델을 능가합니다. 또한, 이 글에서는 재현성을 높이고 해당 분야를 발전시키기 위해 50개 이상의 과제를 포괄하는 포괄적인 평가 도구 세트를 제공합니다.
논문 링크:https://go.hyper.ai/0v2Lr
2. 내일도 여전히 사실일까요? 신뢰도 높은 QA를 위한 다국어 에버그린 질문 분류
대규모 언어 모델(LLM)은 질의응답(QA) 작업에서 종종 환각을 일으킵니다. 중요하지만 충분히 연구되지 않은 요소는 질문의 시간적 특성, 즉 질문이 에버그린(시간 경과에 따라 답변이 변하지 않는)인지 아니면 가변적(시간 경과에 따라 답변이 변하는)인지입니다. 본 논문에서는 평가와 학습을 모두 지원하는 에버그린 레이블을 가진 최초의 다국어 QA 데이터셋인 EverGreenQA를 소개합니다. EverGreenQA를 사용하여 12개의 최신 대규모 언어 모델을 벤치마킹하여 이들이 질문의 시간적 특성을 명시적으로(구두 판단을 통해) 또는 암묵적으로(불확실성 신호를 통해) 표현하는지 평가합니다.
논문 링크:https://go.hyper.ai/UnDRj
3. MambaNeXt-YOLO: 실시간 객체 감지를 위한 하이브리드 상태 공간 모델
본 논문은 정확도와 효율성의 균형을 이루는 새로운 표적 탐지 프레임워크인 MambaNeXt-YOLO를 제안합니다. 이 프레임워크의 구체적인 기여는 다음 세 가지 측면을 포함합니다. MambaNeXt 모듈: 합성곱 신경망(CNN)과 Mamba 상태 공간 구조를 결합한 하이브리드 설계로, 지역적 특징을 효과적으로 추출하고 장거리 의존성을 모델링할 수 있습니다. 다중 분기 비대칭 융합 피라미드 네트워크(MAFPN): 다양한 크기의 표적에 대한 다중 스케일 탐지 기능을 향상시키기 위한 향상된 특징 피라미드 구조입니다. 에지 디바이스 효율성 최적화: 사전 학습 없이도 PASCAL VOC 데이터셋에서 66.6%의 mAP와 31.9 FPS의 추론 속도를 달성하여 NVIDIA Jetson Xavier NX 및 Orin NX와 같은 에지 디바이스에서의 효율적인 배포를 지원합니다.
논문 링크:https://go.hyper.ai/FGaro
4. ComfyUI-Copilot: 자동화된 워크플로 개발을 위한 지능형 어시스턴트
본 논문에서는 ComfyUI의 사용성과 효율성을 향상시키도록 설계된 대규모 언어 모델 기반 플러그인인 ComfyUI-Copilot을 소개합니다. ComfyUI-Copilot 시스템의 핵심은 작업 할당을 담당하는 중앙 보조 에이전트와 각기 다른 목적의 작업을 담당하는 여러 개의 전문 작업자 에이전트로 구성된 계층적 다중 에이전트 프레임워크를 채택합니다. 그 결과, 이 프레임워크가 노드를 정확하게 추천하고 워크플로우 개발을 가속화할 수 있음을 보여줍니다.
논문 링크:https://go.hyper.ai/n0WyZ
5. Prot42: 타겟 인식 단백질 결합제 생성을 위한 새로운 단백질 언어 모델 패밀리
본 논문은 방대한 미표지 단백질 시퀀스를 기반으로 사전 학습된 새로운 단백질 언어 모델인 Prot42를 제안합니다. Prot42는 디코더 전용 아키텍처를 사용하고, 자연어 처리 분야의 최신 기술을 활용하며, 단백질의 진화, 구조 및 기능을 심층적으로 파악하여 언어 기반 계산 단백질 설계 역량을 크게 확장합니다.
논문 링크:https://go.hyper.ai/nHOJA
더 많은 AI 프런티어 논문:https://go.hyper.ai/iSYSZ
커뮤니티 기사 해석
1. 8k 길이의 긴 서열 모델링, 단백질 언어 모델 Prot42는 표적 단백질 서열만을 사용하여 높은 친화도의 결합제를 생성할 수 있습니다.
아부다비의 인셉션 AI 연구소와 실리콘밸리의 세레브라스 시스템즈의 공동 연구팀은 단백질 서열 정보에만 의존하고 3D 구조 입력을 필요로 하지 않는 최초의 단백질 언어 모델(PLM) 제품군인 Prot42를 개발했습니다. Prot42는 긴 서열 모델링과 고친화도 결합제 생성을 가능하게 하여 단백질 설계 분야에 획기적인 발전을 가져왔습니다.
전체 보고서 보기:https://go.hyper.ai/UMKY8
AI 컴파일러의 상류 및 하류를 아우르는 혁신과 관행이 계속해서 등장하고 있으며, 이 분야에 대한 모든 사람들의 관심 또한 높아지고 있습니다! 최첨단 연구와 응용 시나리오를 더욱 효과적으로 연결하기 위해 HyperAI는 7월 5일 베이징에서 제7회 Meet AI Compiler Technology Salon을 개최합니다. 2025년 제7회 Meet AI Compiler Technology Salon은 7월 5일 베이징 Garage Coffee에서 개최될 예정입니다.
전체 보고서 보기:https://go.hyper.ai/QM1xm
3. ICML 2025에 선정된 청화대학교/인민대학교는 통합 생물분자 동역학 시뮬레이터 UniSim을 제안했습니다.
청화대학교의 류양 교수 연구팀과 중국 인민대학교 가오링 인공지능학원의 황원빙 교수 연구팀이 공동으로 통합 생물 분자 시간 조대화 동역학 시뮬레이터 UniSim을 제안했습니다. 이는 처음으로 다양한 분자 유형(소분자, 펩타이드, 단백질)과 화학적 환경에서 통합 시간 조대화 동역학 시뮬레이션을 실현했습니다.
전체 보고서 보기:https://go.hyper.ai/gQ1ob
4. 86,000개의 단백질 구조 데이터를 기반으로 양자역학 계산을 결합한 머신러닝 방법을 사용하여 69개의 새로운 질소-산소-황 결합을 발견했습니다.
게오르크-아우구스트 대학교 연구팀은 86,000개 이상의 고해상도 X선 단백질 구조를 체계적으로 분석하기 위해 혁신적인 계산생물학 알고리즘인 SimplifiedBondfinder를 개발하였고, 이전에는 관찰되지 않았던 아르기닌(Arg)-시스테인과 글리신(Gly)-시스테인 사이에 형성되는 새로운 유형의 NOS 결합을 발견했습니다.
전체 보고서 보기:https://go.hyper.ai/nurdR
인기 백과사전 기사
1. 달-이
2. 상호 정렬 융합 RRF
3. 파레토 전선
4. 대규모 멀티태스크 언어 이해(MMLU)
5. 대조 학습
다음은 "인공지능"을 이해하는 데 도움이 되는 수백 가지 AI 관련 용어입니다.
컨퍼런스 마감일은 6월~7월입니다.
6월 19일 7:59:59 ICDE 2026
7월 2일 7:59:59 VLDB 2026
7월 11일 7:59:59 포플 2026
7월 15일 7:59:59 소다 2026
7월 18일 7:59:59 시그모드 2026
7월 19일 7:59:59 ICSE 2026
최고 AI 학술 컨퍼런스에 대한 원스톱 추적:https://go.hyper.ai/event
위에 적힌 내용은 이번 주 편집자 추천 기사의 전체 내용입니다. hyper.ai 공식 웹사이트에 포함시키고 싶은 리소스가 있다면, 메시지를 남기거나 기사를 제출해 알려주세요!
다음주에 뵙겠습니다!