1 |
1
하나 이상의 프로세서에 의해 수행되는 분산 파일 시스템에 대한 태스크 처리 방법에 있어서, 분산 파일 시스템으로부터 분산 데이터에 대해 처리해야 할 복수의 태스크에 대한 정보를 수신하는 단계;상기 복수의 태스크에 대한 정보 중 GPU(graphic processing unit) 커널 연산에 관한 태스크가 포함되어 있는 경우, 상기 정보를 기초로 상기 분산 파일 시스템으로부터 상기 분산 데이터 중 제1 분산 데이터를 로딩하여 JVM(java virtual machine) heap CPU(central processing unit) 메모리에 저장하는 단계;상기 제1 분산 데이터를 복사한 제2 분산 데이터를 off-heap CPU 메모리에 저장하는 단계;상기 제2 분산 데이터를 복사한 제3 분산 데이터를 GPU 메모리에 저장하는 단계; 및상기 제3 분산 데이터에 대해 상기 GPU 커널 연산을 수행하는 단계를 포함하고, 상기 제3 분산 데이터를 상기 GPU 메모리에 저장하는 단계는,GPU 컨텍스트(GPU context)를 선언하는 단계를 포함하고, 상기 GPU 컨텍스트는, 스파크(spark) 프레임 워크의 API의 특정 기능을 통해 상기 GPU 컨텍스트를 해제하기 전까지 GPU에서 상기 제3 분산 데이터에 대한 태스크가 완료되더라도 상기 GPU 메모리 내에 상기 제3 분산 데이터를 유지시키는 명령어인분산 파일 시스템에 대한 태스크 처리 방법
|
2 |
2
제1항에 있어서,상기 분산 파일 시스템은,하둡 분산 파일 시스템(hadoop distributed file system, HDFS)이고, 상기 제1 분산 데이터를 로딩하여 상기 JVM heap CPU 메모리에 저장하는 단계는, 상기 스파크 프레임 워크의 API를 기초로 수행되는분산 파일 시스템에 대한 태스크 처리 방법
|
3 |
3
삭제
|
4 |
4
제1항에 있어서,상기 off-heap CPU 메모리는, MPI(message passing interface) 규약에 따라 상기 제2 분산 데이터를 상기 분산 파일 시스템에 포함된 노드와 공유하는분산 파일 시스템에 대한 태스크 처리 방법
|
5 |
5
제1항에 있어서,상기 제2 분산 데이터를 상기 off-heap CPU 메모리에 저장하는 단계는,UDS(unix domain socket) 통신을 통해 상기 JVM heap CPU 메모리로부터 상기 off-heap CPU 메모리에 상기 제1 분산 데이터를 복사하는 단계를 포함하는분산 파일 시스템에 대한 태스크 처리 방법
|
6 |
6
제1항에 있어서,상기 제3 분산 데이터를 상기 GPU 메모리에 저장하는 단계는,CUDA(compute unified device architecture)의 memcpy 명령을 통해 상기 off-heap CPU 메모리로부터 상기 GPU 메모리에 상기 제2 분산 데이터를 복사하는 단계를 포함하는분산 파일 시스템에 대한 태스크 처리 방법
|
7 |
7
제1항, 제2항, 제4항 내지 제6항 중 어느 한 항의 방법을 수행하는 하나 이상의 프로세서를 포함하는 연산 장치
|
8 |
8
제1항, 제2항, 제4항 내지 제6항 중 어느 한 항의 방법을 하나 이상의 프로세서가 수행하게 하는 명령어를 포함하는 컴퓨터 프로그램이 기록된 컴퓨터 판독 가능 기록매체
|
9 |
9
제1항, 제2항, 제4항 내지 제6항 중 어느 한 항의 방법을 하나 이상의 프로세서가 수행하도록 하는 컴퓨터 판독 가능 기록매체에 저장된 컴퓨터 프로그램
|