맞춤기술찾기

이전대상기술

딥러닝 기반의 영상 프레임 예측 장치 및 방법

  • 기술번호 : KST2022008569
  • 담당센터 : 서울동부기술혁신센터
  • 전화번호 : 02-2155-3662
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 영상 프레임 예측 장치 및 방법에 관한 것으로, 영상 프레임 예측 장치는 영상 프레임으로부터 적어도 하나의 특성을 추출하는 레벨 인코더, 상기 적어도 하나의 특성을 기반으로 훈련되거나 또는 상기 적어도 하나의 특성에 대응하는 예측된 특성 데이터를 획득 및 전달하는 특성 학습부 및 상기 예측된 특성 데이터를 기반으로 예측 영상 프레임을 획득하는 레벨 디코더를 포함할 수 있다.
Int. CL G06N 3/08 (2006.01.01) G06N 3/04 (2006.01.01)
CPC G06N 3/08(2013.01) G06N 3/04(2013.01)
출원번호/일자 1020200186716 (2020.12.29)
출원인 고려대학교 산학협력단
등록번호/일자
공개번호/일자 10-2022-0083961 (2022.06.21) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보 대한민국  |   1020200173072   |   2020.12.11
법적상태 공개
심사진행상태 수리
심판사항
구분 국내출원/신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2020.12.29)
심사청구항수 16

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 고려대학교 산학협력단 대한민국 서울특별시 성북구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 판 쿤 서울특별시 상북구
2 정충인 서울특별시 강서구
3 백승준 서울특별시 서초구
4 변승환 서울특별시 도봉구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 김홍석 대한민국 서울시 구로구 디지털로**길 **, ***호(구로동, 코오롱싸이언스밸리*차)(동진국제특허법률사무소)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2020.12.29 수리 (Accepted) 1-1-2020-1429474-18
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
영상 프레임으로부터 적어도 하나의 특성을 추출 및 학습하는 레벨 인코더;상기 적어도 하나의 특성을 기반으로 학습하거나 또는 상기 적어도 하나의 특성에 대응하는 예측된 특성 데이터를 전달하는 특성 학습부; 및상기 예측된 특성 데이터를 기반으로 예측 영상 프레임을 획득 및 학습하는 레벨 디코더;를 포함하는 영상 프레임 예측 장치
2 2
제1항에 있어서,상기 레벨 인코더는, 제1 레벨 인코더 내지 제N 레벨 인코더를 포함하되, 상기 제1 레벨 인코더 내지 제N 레벨 인코더 각각은 상기 영상 프레임으로부터 서로 상이한 레벨의 특성을 각각 추출하고, 상기 N은 2 이상의 자연수를 포함하는 영상 프레임 예측 장치
3 3
제2항에 있어서,상기 특성 학습부는, 상기 제1 레벨 인코더 내지 상기 제N 레벨 인코더 각각에 대응하는 제1 특성 학습부 내지 제N 특성 학습부를 포함하고, 상기 제1 특성 학습부 내지 제N 특성 학습부 각각은 상기 서로 상이한 레벨의 특성 각각을 수신하고 상기 서로 상이한 레벨의 특성 각각에 대응하는 예측된 특성 데이터를 각각 획득하고 전달하는 영상 프레임 예측 장치
4 4
제3항에 있어서,상기 레벨 디코더는, 상기 제1 레벨 인코더 내지 상기 제N 레벨 인코더 각각에 대응하거나 또는 상기 제1 특성 학습부 내지 제N 특성 학습부 각각에 대응하는 제1 레벨 디코더 내지 제N 레벨 디코더를 포함하되, 상기 제1 레벨 디코더 내지 제N 레벨 디코더는 각각의 상기 예측된 특성 데이터를 각각 수신하고, 상기 예측된 특성 데이터를 이용하여 예측 영상 프레임을 생성하는 영상 프레임 예측 장치
5 5
제1항에 있어서,상기 레벨 인코더는 제1 내지 제(T-1) 영상 프레임을 각각 입력 받고, 상기 제1 내지 제(T-1) 영상 프레임 각자로부터 적어도 하나의 특성을 추출하되, 상기 T는 2 이상의 자연수를 포함하고,상기 특성 학습부는 상기 제1 내지 제(T-1) 영상 프레임 각자로부터 추출된 적어도 하나의 특성을 기반으로 훈련되는 영상 프레임 예측 장치
6 6
제1항에 있어서,상기 레벨 인코더는 제T 영상 프레임을 입력 받고, 상기 레벨 디코더는 상기 제T 영상 프레임에 대응하여 제(T+1) 예측 영상 프레임을 획득하는 영상 프레임 예측 장치
7 7
제6항에 있어서,상기 레벨 인코더는 상기 제(T+1) 예측 영상 프레임을 입력 받고,상기 레벨 디코더는 상기 제(T+1) 예측 영상 프레임에 대응하여 제(T+2) 예측 영상 프레임을 획득하는 영상 프레임 예측 장치
8 8
제1항에 있어서,상기 레벨 인코더 및 상기 레벨 디코더 중 적어도 하나는 콘볼루션 신경망(CNN, Convolutional Neural Network), 심층 신경망(DNN, Deep Neural Network), 순환 신경망(RNN, Recurrent Neural Network) 및 심층 신뢰 신경망(DBN, Deep Belief Network) 중 적어도 하나를 기반으로 하는 영상 프레임 예측 장치
9 9
제1항에 있어서,상기 특성 학습부는, 장단기 메모리(LSTM: Long short term memory)를 기반으로 하는 영상 프레임 예측 장치
10 10
영상 프레임으로부터 적어도 하나의 특성을 추출하는 단계;상기 적어도 하나의 특성을 기반으로 훈련되거나 상기 적어도 하나의 특성에 대응하는 예측된 특성 데이터를 획득하는 단계; 및상기 예측된 특성 데이터를 기반으로 예측 영상 프레임을 획득하는 단계;를 포함하는 영상 프레임 예측 방법
11 11
제10항에 있어서,상기 영상 프레임으로부터 적어도 하나의 특성을 추출하는 단계는,제1 레벨 인코더 내지 제N 레벨 인코더가 상기 영상 프레임으로부터 서로 상이한 레벨의 특성을 각각 추출하되, 상기 N은 2 이상의 자연수를 포함하는 단계;를 포함하는 영상 프레임 예측 방법
12 12
제11항에 있어서,상기 적어도 하나의 특성에 대응하는 예측된 특성 데이터를 획득하는 단계는,상기 제1 레벨 인코더 내지 상기 제N 레벨 인코더에 대응하는 제1 특성 학습부 내지 제N 특성 학습부가 각각의 상기 서로 상이한 레벨의 특성을 각각 수신하는 단계; 및상기 제1 특성 학습부 내지 제N 특성 학습부가 상기 서로 상이한 레벨의 특성 각각에 대응하는 예측된 특성 데이터를 각각 획득하는 단계 및 다음 프레임 처리과정으로 전달하는 구조;를 포함하는 영상 프레임 예측 방법
13 13
제12항에 있어서,상기 예측된 특성 데이터를 기반으로 예측 영상 프레임을 획득하는 단계는,제1 레벨 디코더 내지 제N 레벨 디코더가 각각의 상기 예측된 특성 데이터를 각각 수신하는 단계; 및상기 제1 레벨 디코더 내지 제N 레벨 디코더가 상기 예측된 특성 데이터를 이용하여 예측 영상 프레임을 생성하는 단계를 포함하되,상기 제1 레벨 디코더 내지 제N 레벨 디코더는 상기 제1 레벨 인코더 내지 상기 제N 레벨 인코더 각각에 대응하거나 또는 상기 제1 특성 학습부 내지 제N 특성 학습부 각각에 대응하는 영상 프레임 예측 방법
14 14
제10항에 있어서,상기 영상 프레임으로부터 적어도 하나의 특성을 추출하는 단계는,제1 내지 제(T-1) 영상 프레임을 각각 입력 받고, 상기 제1 내지 제(T-1) 영상 프레임 각자로부터 적어도 하나의 특성을 추출하되, 상기 T는 2 이상의 자연수를 포함하는 단계;를 포함하고,상기 적어도 하나의 특성을 기반으로 훈련되는 단계는, 상기 제1 내지 제(T-1) 영상 프레임 각자로부터 추출된 적어도 하나의 특성을 기반으로 훈련되는 단계;를 포함하는 영상 프레임 예측 방법
15 15
제10항에 있어서,상기 영상 프레임으로부터 적어도 하나의 특성을 추출하는 단계는, 제T 영상 프레임을 입력 받고, 상기 제T 영상 프레임으로부터 적어도 하나의 특성을 추출하는 단계;를 포함하고,상기 예측된 특성 데이터를 기반으로 예측 영상 프레임을 획득하는 단계는,상기 예측된 특성 데이터를 기반으로 상기 제T 영상 프레임에 대응하여 제(T+1) 예측 영상 프레임을 획득하는 단계;를 포함하는 영상 프레임 예측 방법
16 16
제15항에 있어서,상기 제(T+1) 예측 영상 프레임을 입력 받고, 상기 제(T+1) 예측 영상 프레임에 대응하여 제(T+2) 예측 영상 프레임을 획득하는 단계;를 더 포함하는 영상 프레임 예측 방법
지정국 정보가 없습니다
패밀리정보가 없습니다
순번, 연구부처, 주관기관, 연구사업, 연구과제의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 국가R&D 연구정보 정보 표입니다.
순번 연구부처 주관기관 연구사업 연구과제
1 과학기술정보통신부 고려대학교산학협력단 정보통신방송혁신인재양성(R&D) ICT명품인재양성(고려대학교)