download0 view279
twitter facebook

공공누리This item is licensed Korea Open Government License

Title
거대 딥러닝 모델의 분산 학습 속도 향상을 위한 샤드 데이터 병렬화의 메모리 활용 최적화 및 통신 스케줄링 기법 연구
Alternative Title
Memory Consumption Optimization and Communication Scheduling for Sharded Data Parallelism for Large-scale DNN Training
Author(s)
오상윤오도현유미리윤대건이승준정현석
Publisher
한국과학기술정보연구원
Publication Year
2022
Keyword
거대 딥러닝 모델; 모델병렬화; 데이터병렬화; 통신기법; 최적화
Files in This Item:
There are no files associated with this item.
Appears in Collections:
7. KISTI 연구성과 > 연구보고서 > 2022
Type
Report
URI
https://repository.kisti.re.kr/handle/10580/18410
Export
RIS (EndNote)
XLS (Excel)
XML

Browse