맞춤기술찾기

이전대상기술

컨테이너 기반 가상화 환경에서 GPU 메모리 자원 관리 및 스케줄링 방법 및 시스템

  • 기술번호 : KST2020000072
  • 담당센터 : 대전기술혁신센터
  • 전화번호 : 042-610-2279
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 컨테이너 기반 가상화 환경에서 GPU 메모리 자원 관리 및 스케줄링 방법 및 시스템이 제시된다. 본 발명에서 제안하는 컨테이너 기반 가상화 환경에서 GPU 메모리 자원 관리 및 스케줄링 방법은 사용자 정의된 nvidia-도커(docker)에 명령이 전송되면, NVIDIA GPU 사용 옵션을 갖는 오리지널 도커에 명령이 리디렉션되는 단계, ConVGPU가 상기 NVIDIA GPU 와 통신 및 제어하여 CUDA 래퍼(wrapper) API 모듈을 컨테이너에 삽입하는 단계, 컨테이너 런타임 중에 CUDA 래퍼 API 모듈이 일부 API를 캡처하여 GPU 메모리 스케줄러로 전송하는 단계 및 GPU 메모리 스케줄러가 컨테이너와 GPU 메모리 사용을 스케줄링하는 단계를 포함한다.
Int. CL G06F 9/50 (2018.01.01)
CPC G06F 9/5016(2013.01) G06F 9/5016(2013.01)
출원번호/일자 1020180070962 (2018.06.20)
출원인 한국과학기술원
등록번호/일자 10-2092459-0000 (2020.03.17)
공개번호/일자 10-2019-0143248 (2019.12.30) 문서열기
공고번호/일자 (20200323) 문서열기
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 등록
심사진행상태 수리
심판사항
구분 신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2018.06.20)
심사청구항수 9

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 한국과학기술원 대한민국 대전광역시 유성구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 김대영 대전광역시 유성구
2 강대연 대전광역시 유성구
3 전태준 대전광역시 유성구
4 김도현 대전광역시 유성구
5 김재욱 대전광역시 유성구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 양성보 대한민국 서울특별시 강남구 선릉로***길 ** (논현동) 삼성빌딩 *층(피앤티특허법률사무소)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
1 한국과학기술원 대한민국 대전광역시 유성구
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2018.06.20 수리 (Accepted) 1-1-2018-0606898-33
2 선행기술조사의뢰서
Request for Prior Art Search
2019.03.15 수리 (Accepted) 9-1-9999-9999999-89
3 출원인정보변경(경정)신고서
Notification of change of applicant's information
2019.04.24 수리 (Accepted) 4-1-2019-5081392-49
4 선행기술조사보고서
Report of Prior Art Search
2019.05.13 발송처리완료 (Completion of Transmission) 9-6-2019-0053427-97
5 의견제출통지서
Notification of reason for refusal
2019.06.12 발송처리완료 (Completion of Transmission) 9-5-2019-0416342-06
6 [명세서등 보정]보정서
[Amendment to Description, etc.] Amendment
2019.08.12 보정승인간주 (Regarded as an acceptance of amendment) 1-1-2019-0822645-45
7 [거절이유 등 통지에 따른 의견]의견(답변, 소명)서
[Opinion according to the Notification of Reasons for Refusal] Written Opinion(Written Reply, Written Substantiation)
2019.08.12 수리 (Accepted) 1-1-2019-0822644-00
8 등록결정서
Decision to grant
2019.12.17 발송처리완료 (Completion of Transmission) 9-5-2019-0913601-06
9 출원인정보변경(경정)신고서
Notification of change of applicant's information
2020.05.15 수리 (Accepted) 4-1-2020-5108396-12
10 출원인정보변경(경정)신고서
Notification of change of applicant's information
2020.06.12 수리 (Accepted) 4-1-2020-5131486-63
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
사용자 정의된 nvidia-도커(docker)에 명령이 전송되면, 사용자 정의된 nvidia-도커를 통해 NVIDIA GPU 사용 옵션을 갖는 오리지널 도커에 명령이 리디렉션되는 단계; ConVGPU를 통해 상기 NVIDIA GPU 와 통신 및 제어하여 CUDA 래퍼(wrapper) API 모듈을 컨테이너에 삽입하는 단계; 컨테이너 런타임 중에 CUDA 래퍼 API 모듈을 통해 일부 API를 캡처하여 GPU 메모리 스케줄러로 전송하는 단계; 및 GPU 메모리 스케줄러를 통해 컨테이너와 GPU 메모리 사용을 스케줄링하는 단계 를 포함하고,상기 사용자 정의된 nvidia-도커(docker)에 명령이 전송되면, NVIDIA GPU 사용 옵션을 갖는 오리지널 도커에 명령이 리디렉션되는 단계는, 컨테이너가 사용할 수 있는 최대의 GPU 메모리를 설정하기 위해 nvidia-도커를 사용자 정의하고, 컨테이너 내부의 호스트와 프로그램간 통신을 위해 ConVGPU에 UNIX 소켓을 적용하고, 공유 메모리 및 일반 파일 공유를 위한 옵션들을 제공하는GPU 메모리 자원 관리 및 스케줄링 방법
2 2
삭제
3 3
제1항에 있어서, 상기 ConVGPU가 상기 NVIDIA GPU 와 통신하고 제어하여 CUDA 래퍼(wrapper) API 모듈을 컨테이너에 삽입하는 단계는, ConVGPU를 사용할 때 각 사용자 프로그램이 완전히 격리되도록 하고, 컨테이너의 정지 상태를 감지하기 위해, nvidia-도커를 사용하여 nvidia-도커-플러그인에 연결된 컨테이너에 더미 볼륨을 추가하는 GPU 메모리 자원 관리 및 스케줄링 방법
4 4
제3항에 있어서, 컨테이너의 실행이 종료되는 경우, 도커는 볼륨을 마운트 해제하여, nvidia-도커-플러그인이 컨테이너가 종료되었음을 확인하고, nvidia-도커-플러그인은 해당 컨테이너에 대한 스케줄러로 종료 신호를 전송하는 GPU 메모리 자원 관리 및 스케줄링 방법
5 5
제1항에 있어서, 컨테이너 런타임 중에 CUDA 래퍼 API 모듈이 일부 API를 캡처하여 GPU 메모리 스케줄러로 전송하는 단계는, CUDA 래퍼 API 모듈은 요청된 메모리 크기가 사용 가능한 경우에만 오리지널 CUDA API를 사용하여 메모리를 할당하고, 할당 후 CUDA 래퍼 API 모듈은 할당된 메모리 주소, 현재 pid 및 크기 정보를 GPU 메모리 스케줄러로 전송하여 GPU 메모리 사용을 추적하는 GPU 메모리 자원 관리 및 스케줄링 방법
6 6
제1항에 있어서, 상기 GPU 메모리 스케줄러가 컨테이너와 GPU 메모리 사용을 스케줄링하는 단계는, GPU 메모리 스케줄러는 컨테이너로부터 모든 GPU 메모리 할당을 수락, 일시 중지 또는 거부하도록 결정하고, 각 컨테이너에 UNIX 소켓을 생성하고 컨테이너에 삽입된 CUDA 래퍼 API 모듈과 통신하는 GPU 메모리 자원 관리 및 스케줄링 방법
7 7
제6항에 있어서, 사용자에 의해 컨테이너가 실행되기 전에, nvidia-도커는 해당 컨테이너의 고유 디렉토리 경로를 스케줄러에 요청하고, 스케줄러는 컨테이너와 볼륨을 공유하기 위한 디렉토리를 생성하여, 디렉토리 내에 UNIX 소켓을 구축하고, CUDA 래퍼 API 모듈을 디렉토리에 복사하는GPU 메모리 자원 관리 및 스케줄링 방법
8 8
제6항에 있어서, 사용자 프로그램이 메모리 할당 API를 호출하면, CUDA 래퍼 API 모듈은 컨테이너에 준비된 UNIX 소켓을 통해 메모리 크기 정보를 GPU 메모리 스케줄러로 전송하고, GPU 메모리 스케줄러는 컨테이너에서 모든 메모리 할당 호출을 추적하는 GPU 메모리 자원 관리 및 스케줄링 방법
9 9
제6항에 있어서, 실행중인 컨테이너에서 GPU 메모리 크기가 충분하지 않은 경우, 요구되는 메모리 크기를 사용할 수 있을 때까지 GPU 메모리 스케줄러의 응답이 일시 중단되고, 해당 컨테이너에서 요청된 모든 메모리 할당은 스케줄러가 컨테이너에 GPU 메모리를 더 할당할 때까지 일시 중단되며, 일부 컨테이너의 실행이 완료되면 GPU 메모리 스케줄러가 점유된 GPU 메모리를 다른 컨테이너에 할당하는 GPU 메모리 자원 관리 및 스케줄링 방법
10 10
명령이 전송되면, NVIDIA GPU 사용 옵션을 갖는 오리지널 도커에 명령을 리디렉션하는 사용자 정의된 nvidia-도커(docker); 상기 NVIDIA GPU 와 통신 및 제어하여 CUDA 래퍼(wrapper) API 모듈을 컨테이너에 삽입하는 ConVGPU; 컨테이너 런타임 중에 일부 API를 캡처하여 GPU 메모리 스케줄러로 전송하는 CUDA 래퍼 API 모듈; 및 컨테이너와 GPU 메모리 사용을 스케줄링하는 GPU 메모리 스케줄러 를 포함하고,사용자 정의된 nvidia-도커는, 컨테이너가 사용할 수 있는 최대의 GPU 메모리를 설정하기 위해 nvidia-도커를 사용자 정의하고, 컨테이너 내부의 호스트와 프로그램간 통신을 위해 ConVGPU에 UNIX 소켓을 적용하고, 공유 메모리 및 일반 파일 공유를 위한 옵션들을 제공하는GPU 메모리 자원 관리 및 스케줄링 시스템
지정국 정보가 없습니다
패밀리정보가 없습니다
국가 R&D 정보가 없습니다.