2018년 리뷰: 가장 인기 있는 오픈소스 머신러닝 프로젝트 6가지

Super Neuro에서
지난 2018년에는 인공지능과 머신러닝이 크게 발전했습니다. 머신 러닝은 의료, 금융, 음성 인식, 증강 현실 등의 분야에서 활용되고 있습니다. 이 글에서는 지난 한 해 동안 가장 실용적이었던 여섯 가지 머신 러닝 프로젝트를 살펴보겠습니다. 참고하실 수 있도록 GitHub 주소를 첨부해 드리겠습니다.
파스타이

GitHub 주소:https://github.com/fastai/fastai
이것은 Fast.ai가 공개한 무료 오픈 소스 Pytorch 라이브러리입니다. 이 솔루션은 원래 Fast.ai 과정의 학생을 위해 만들어졌으며 2018년 10월에 공식적으로 대중에게 공개되었습니다.
핵심은 효율적인 방법을 사용하여 빠르고 정확한 신경망을 훈련하는 것입니다. 이제 중요한 딥러닝 애플리케이션과 데이터 유형에 대해 일관된 API를 사용할 수 있습니다.

이 프로그램은 효율성이 높을 뿐만 아니라 실무자의 프로그램 구축 아이디어를 염두에 두고 설계되었기 때문에 단순성과 사용 편의성 측면에서도 사용자 친화적입니다.
데테트론

GitHub 주소:https://github.com/facebookresearch/Detectron
Detectron은 Facebook AI가 Python과 Caffe2를 기반으로 구축한 결과물로, 2018년 1월에 공식적으로 오픈 소스로 공개되었습니다. Detectron은 다음을 포함한 다양한 객체 감지 알고리즘을 사용하여 객체 감지 및 인스턴스 분할 연구를 위한 플랫폼입니다.
1) Mask R-CNN: Faster R-CNN 구조를 사용하여 객체 감지 및 인스턴스 분할을 구현합니다.
2) RetinaNet: 고유한 초점 손실을 사용하여 문제를 처리하는 기능적 피라미드 기반 네트워크입니다.
3) Faster R-CNN: 가장 일반적인 타겟 감지 네트워크 구조입니다.
이러한 타겟 감지 네트워크에서 주로 사용되는 합성 신경망 아키텍처는 다음과 같습니다.
- ResNeXt {50, 101, 152}
- RESNET {50, 101, 152}
- 피처 피라미드 네트워크(ResNet/ResNeXt 포함)
- VGG16
또한 Detectron에는 이러한 알고리즘과 아키텍처에 대한 기준 결과와 학습된 모델이 포함되어 있으며 COCO 데이터 세트에 대한 지원도 우수합니다.
패스트텍스트

GitHub 주소:https://github.com/facebookresearch/fastText
이는 Facebook AI의 데이터베이스이며 2016년에 오픈 소스로 공개되었습니다. FastText 라이브러리는 텍스트 표현 및 분류를 위해 설계된 플랫폼입니다.
여러 언어를 지원하며 150개 이상의 언어에 대해 훈련된 단어 벡터 모델이 함께 제공됩니다. 이러한 단어 벡터는 텍스트 분류, 요약, 번역 등 다양한 용도로 사용됩니다.
또한, fastText는 딥러닝 모델에 비해 학습 시간을 며칠에서 몇 초로 단축할 수 있습니다.
오토케라스

GitHub 주소: https://github.com/jhfjhfj1/autokeras
Auto-Keras는 자동화된 머신 러닝(AutoML)을 위한 오픈 소스 소프트웨어 라이브러리입니다. 텍사스 A&M 대학의 DATA 랩과 커뮤니티 기여자들이 ENAS(Efficient Neural Architecture Search) 방법을 사용하여 개발했습니다.

AutoML의 궁극적인 목표는 데이터 과학이나 머신 러닝 분야 경험이 없는 사람들도 ML에 쉽게 접근하고 사용할 수 있도록 장벽 없는 접근 도구를 제공하는 것입니다. Auto-Keras는 딥 러닝 모델과 하이퍼파라미터에 대한 자동 검색 기능을 제공하여 이를 한 단계 더 발전시켰습니다.
도파민

GitHub 주소:https://github.com/google/dopamine
도파민은 구글이 텐서플로우를 기반으로 개발한 제품입니다. 이는 강화 학습 알고리즘의 빠른 프로토타입을 만들기 위한 연구 프레임워크입니다. 유연하고 사용하기 쉬우며, 표준 RL 알고리즘, 측정항목 및 벤치마크를 구현합니다.
도파민 문서에 따르면, 설계 원칙은 다음과 같습니다.
- 사용하기 쉬움: 새로운 사용자가 벤치마크 실험을 실행하도록 돕습니다.
- 유연한 개발: 새로운 사용자가 새로운 아이디어를 창출하도록 장려합니다.
- 컴팩트하고 안정적: 새로운 인기 알고리즘에 대한 보장 제공
- 반복성: 반복 가능한 결과를 보장합니다.
비드투비드
Vid2vid 프로젝트는 비디오-비디오 합성 문제에 초점을 맞춘 Nvidia의 연구 활동입니다. Vid2vid 알고리즘의 목표는 입력 소스 비디오에서 출력 사진처럼 사실적인 비디오로의 매핑 함수를 학습하는 것입니다. 최종 출력 비디오는 소스 비디오의 내용을 정확하게 묘사합니다.

GitHub 주소:https://github.com/NVIDIA/vid2vid
이 라이브러리의 가장 좋은 점은 자율주행/도시 풍경, 얼굴, 인물 포즈 등 다양한 vid2vid 애플리케이션을 제공한다는 것입니다. 또한 데이터 세트 로딩, 작업 평가, 학습 기능, 다중 GPU 등 다양한 지침과 기능이 함께 제공됩니다.