맞춤기술찾기

이전대상기술

보충 정보를 이용한 영상 프레임의 보간 방법 및 장치(METHOD AND APPARATUS FOR IMAGE FRAME INTERPOLATION USING SUPPLEMENTAL INFORMATION)

  • 기술번호 : KST2017005629
  • 담당센터 : 대전기술혁신센터
  • 전화번호 : 042-610-2279
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 영상 프레임의 보간 방법 및 장치가 개시된다. 본 발명에 따른 영상 프레임의 보간 방법 및 장치는 원 영상의 프레임을 복수 영역으로 분할한 세그먼트와 관련된 보충 정보를 수신하고, 보충 정보를 이용하여 제 1 프레임 세그먼트 및 제 2 프레임 세그먼트 간의 움직임 벡터를 예측하며, 제 1 프레임 세그먼트 및 제 2 프레임 세그먼트 중 하나와 예측된 움직임 벡터에 기초하여 제 1 프레임 세그먼트와 제 2 프레임 세그먼트 사이의 제 3 프레임 세그먼트를 보간한다.
Int. CL H04N 7/01 (2006.01.01)
CPC H04N 7/0127(2013.01) H04N 7/0127(2013.01) H04N 7/0127(2013.01)
출원번호/일자 1020150124234 (2015.09.02)
출원인 삼성전자주식회사, 한국과학기술원
등록번호/일자
공개번호/일자 10-2017-0027509 (2017.03.10) 문서열기
공고번호/일자 문서열기
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 등록
심사진행상태 수리
심판사항
구분 신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2018.11.07)
심사청구항수 11

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 삼성전자주식회사 대한민국 경기도 수원시 영통구
2 한국과학기술원 대한민국 대전광역시 유성구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 임형준 대한민국 서울특별시 서초구
2 박현욱 대한민국 대전광역시 유성구
3 허평강 대한민국 대전광역시 유성구
4 김동윤 대한민국 경기도 수원시 영통구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 리앤목특허법인 대한민국 서울 강남구 언주로 **길 **, *층, **층, **층, **층(도곡동, 대림아크로텔)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
1 삼성전자주식회사 경기도 수원시 영통구
2 한국과학기술원 대전광역시 유성구
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2015.09.02 수리 (Accepted) 1-1-2015-0853861-78
2 [심사청구]심사청구(우선심사신청)서
[Request for Examination] Request for Examination (Request for Preferential Examination)
2018.11.07 수리 (Accepted) 1-1-2018-1104502-73
3 선행기술조사의뢰서
Request for Prior Art Search
2019.02.15 수리 (Accepted) 9-1-9999-9999999-89
4 선행기술조사보고서
Report of Prior Art Search
2019.04.10 수리 (Accepted) 9-1-2019-0016887-02
5 출원인정보변경(경정)신고서
Notification of change of applicant's information
2019.04.24 수리 (Accepted) 4-1-2019-5081392-49
6 의견제출통지서
Notification of reason for refusal
2019.11.13 발송처리완료 (Completion of Transmission) 9-5-2019-0820382-32
7 [거절이유 등 통지에 따른 의견]의견(답변, 소명)서
[Opinion according to the Notification of Reasons for Refusal] Written Opinion(Written Reply, Written Substantiation)
2020.01.08 수리 (Accepted) 1-1-2020-0022350-53
8 [명세서등 보정]보정서
[Amendment to Description, etc.] Amendment
2020.01.08 보정승인간주 (Regarded as an acceptance of amendment) 1-1-2020-0022351-09
9 등록결정서
Decision to grant
2020.03.23 발송처리완료 (Completion of Transmission) 9-5-2020-0211586-45
10 출원인정보변경(경정)신고서
Notification of change of applicant's information
2020.05.15 수리 (Accepted) 4-1-2020-5108396-12
11 출원인정보변경(경정)신고서
Notification of change of applicant's information
2020.06.12 수리 (Accepted) 4-1-2020-5131486-63
12 [명세서등 보정]보정서(심사관 직권보정)
2020.06.25 보정승인간주 (Regarded as an acceptance of amendment) 1-1-2020-5016408-55
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
움직임 벡터 필드의 복수의 세그먼트와 관련된 보충 정보를 수신하는 단계;복호화된 영상에 포함된 제 1 프레임의 제 1 세그먼트와 상기 복호화된 영상에 포함된 제 2 프레임의, 상기 제 1 프레임과 대응하는, 제 2 세그먼트를 결정하는 단계;상기 보충 정보를 이용하여 상기 제 1 프레임의 상기 제 1 세그먼트 및 상기 제 2 프레임의 상기 제 2 세그먼트 간의 움직임 벡터를 예측하는 단계; 및상기 제 1 세그먼트 및 상기 제 2 세그먼트 중 하나와 상기 예측된 움직임 벡터에 기초하여 상기 제 1 세그먼트와 상기 제 2 세그먼트 사이에 제 3 프레임의 제 3 세그먼트를 보간하는 단계를 포함하며, 상기 움직임 벡터 필드는 부호화되지 않은 원 영상(original video)의 프레임의 각 픽셀에 대하여 움직임 예측을 수행하여 생성되고,상기 움직임 벡터 필드의 상기 복수의 세그먼트는 K-평균 군집화((K-means clustering)를 기초로 상기 움직임 벡터 필드를 분류하여 생성된 복수의 균질적인(homogeneous) 군집과 대응되며,상기 보충 정보는 상기 복수의 세그먼트 중에서 세그먼트의 대표 움직임 벡터, 세그먼트의 중심좌표, 세그먼트의 넓이, 세그먼트의 경계 판단 임계 값 및 심도(depth) 중 적어도 하나에 대한 정보를 포함하는, 영상 프레임의 보간 방법
2 2
삭제
3 3
삭제
4 4
제 1 항에 있어서,상기 보충 정보를 수신하는 단계는,부호화된 영상 정보가 전송되기 위한 비트스트림을 통해 상기 보충 정보를 수신하는 단계를 포함하는, 영상 프레임의 보간 방법
5 5
제 1 항에 있어서,상기 보충 정보를 수신하는 단계는,SEI(Supplementary Enhancement Information) 메시지를 통해 상기 보충 정보를 수신하는 단계를 포함하는, 영상 프레임의 보간 방법
6 6
제 1 항에 있어서,상기 움직임 벡터를 예측하는 단계는,상기 세그먼트의 중심좌표에 상기 대표 움직임 벡터를 씨드(seed) 움직임 벡터로 할당하는 단계;상기 씨드 움직임 벡터를 참조하여 상기 씨드 움직임 벡터에 인접한 영역의 움직임 벡터를 추정하는 단계; 및상기 추정된 움직임 벡터를 참조하여 상기 세그먼트 내의 나머지 영역의 움직임 벡터를 추정하는 단계를 포함하는, 영상 프레임의 보간 방법
7 7
제 1 항에 있어서,상기 보충 정보는 세그먼트 내에 움직임 벡터가 존재하지 않거나 부정확한 영역인 폐색 영역(occlusion)이 존재하는지 여부를 나타내는 플래그를 포함하며,상기 폐색 영역이 존재하는 경우, 상기 움직임 벡터를 예측하는 단계는, 상기 원 영상의 프레임에 대한 움직임 예측을 수행하여 생성된 움직임 벡터를 상기 세그먼트의 움직임 벡터로 사용하는 단계를 포함하는, 영상 프레임의 보간 방법
8 8
움직임 벡터 필드의 복수의 세그먼트와 관련된 보충 정보를 수신하는 보충 정보 수신부;복호화된 영상에 포함된 제 1 프레임의 제 1 세그먼트와 상기 복호화된 영상에 포함된 제 2 프레임의, 상기 제 1 프레임과 대응하는, 제 2 세그먼트를 결정하고, 상기 보충 정보를 이용하여 상기 제 1 프레임의 상기 제 1 세그먼트 및 상기 제 2 프레임의 상기 제 2 세그먼트 간의 움직임 벡터를 예측하는 움직임 예측부; 및상기 제 1 세그먼트 및 상기 제 2 세그먼트 중 하나와 상기 예측된 움직임 벡터에 기초하여 상기 제 1 세그먼트와 상기 제 2 세그먼트 사이에 제 3 프레임의 제 3 세그먼트를 보간하는 프레임 보간부를 포함하며, 상기 움직임 벡터 필드는 부호화되지 않은 원 영상(original video)의 프레임의 각 픽셀에 대하여 움직임 예측을 수행하여 생성되고,상기 움직임 벡터 필드의 상기 복수의 세그먼트는 K-평균 군집화((K-means clustering)를 기초로 상기 움직임 벡터 필드를 분류하여 생성된 복수의 균질적인(homogeneous) 군집과 대응되며,상기 보충 정보는 상기 복수의 세그먼트 중에서 세그먼트의 대표 움직임 벡터, 세그먼트의 중심좌표, 세그먼트의 넓이, 세그먼트의 경계 판단 임계 값 및 심도(depth) 중 적어도 하나에 대한 정보를 포함하는, 영상 프레임의 보간 장치
9 9
삭제
10 10
삭제
11 11
제 8 항에 있어서,상기 보충 정보 수신부는,부호화된 영상 정보가 전송되기 위한 비트스트림을 통해 상기 보충 정보를 수신하는, 영상 프레임의 보간 장치
12 12
제 8 항에 있어서,상기 보충 정보 수신부는,SEI(Supplementary Enhancement Information) 메시지를 통해 상기 보충 정보를 수신하는, 영상 프레임의 보간 장치
13 13
제 8 항에 있어서,상기 움직임 예측부는,상기 세그먼트의 중심좌표에 상기 대표 움직임 벡터를 씨드(seed) 움직임 벡터로 할당하고, 상기 씨드 움직임 벡터를 참조하여 상기 씨드 움직임 벡터에 인접한 영역의 움직임 벡터를 추정하며, 상기 추정된 움직임 벡터를 참조하여 상기 세그먼트 내의 나머지 영역의 움직임 벡터를 추정하는, 영상 프레임의 보간 장치
14 14
제 8 항에 있어서,상기 보충 정보는 세그먼트 내에 움직임 벡터가 존재하지 않거나 부정확한 영역인 폐색 영역(occlusion)이 존재하는지 여부를 나타내는 플래그를 포함하며,상기 폐색 영역이 존재하는 경우, 상기 움직임 예측부는, 상기 원 영상의 프레임에 대한 움직임 예측을 수행하여 생성된 움직임 벡터를 상기 세그먼트의 움직임 벡터로 사용하는, 영상 프레임의 보간 장치
15 15
제 1 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
지정국 정보가 없습니다
순번, 패밀리번호, 국가코드, 국가명, 종류의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 패밀리정보 - 패밀리정보 표입니다.
순번 패밀리번호 국가코드 국가명 종류
1 US20170064325 US 미국 FAMILY

DOCDB 패밀리 정보

순번, 패밀리번호, 국가코드, 국가명, 종류의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 패밀리정보 - DOCDB 패밀리 정보 표입니다.
순번 패밀리번호 국가코드 국가명 종류
1 US2017064325 US 미국 DOCDBFAMILY
국가 R&D 정보가 없습니다.