맞춤기술찾기

이전대상기술

영상을 변환하는 컴퓨팅 장치 및 그 동작 방법

  • 기술번호 : KST2021001305
  • 담당센터 : 서울서부기술혁신센터
  • 전화번호 : 02-6124-6930
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 컴퓨팅 장치를 이용하여 영상을 변환하는 방법이 개시된다. 상기 방법은, 컨텐트에 관한 sRGB(standard Red Green Blue)의 색역(gamut)을 갖는 제1 sRGB 영상을 획득하는 단계; 뉴럴 네트워크를 이용하여 상기 제1 sRGB 영상의 색역을 DCI-P3(Digital Cinema Initiative-P3)의 색역으로 변환한 제1 변환 영상을 획득하는 단계; 상기 제1 sRGB 영상에 제1 색 변환 행렬을 적용함으로써 생성된 제2 변환 영상 및 상기 제1 변환 영상에 기초하여, 상기 제1 sRGB 영상의 색역을 DCI-P3 색역으로 변환한 최종 변환 영상을 생성하는 단계를 포함한다.
Int. CL H04N 9/67 (2006.01.01) H04N 1/60 (2006.01.01) G06N 3/08 (2006.01.01)
CPC H04N 9/67(2013.01) H04N 1/6058(2013.01) G06N 3/08(2013.01)
출원번호/일자 1020190099844 (2019.08.14)
출원인 삼성전자주식회사, 중앙대학교 산학협력단
등록번호/일자
공개번호/일자 10-2021-0020476 (2021.02.24) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 공개
심사진행상태 수리
심판사항
구분
원출원번호/일자
관련 출원번호
심사청구여부/일자 N
심사청구항수 15

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 삼성전자주식회사 대한민국 경기도 수원시 영통구
2 중앙대학교 산학협력단 대한민국 서울특별시 동작구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 송원석 경기도 수원시 영통구
2 백준기 서울특별시 서초구
3 문영수 경기도 수원시 영통구
4 이상수 경기도 수원시 영통구
5 정유선 경기도 수원시 영통구
6 박관우 서울특별시 송파구
7 유수환 인천광역시 부평구
8 임영훈 서울특별시 송파구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 리앤목특허법인 대한민국 서울 강남구 언주로 **길 **, *층, **층, **층, **층(도곡동, 대림아크로텔)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2019.08.14 수리 (Accepted) 1-1-2019-0837275-06
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
컴퓨팅 장치를 이용하여 영상을 변환하는 방법에 있어서, 컨텐트에 관한 sRGB(standard Red Green Blue)의 색역(gamut)을 갖는 제1 sRGB 영상을 획득하는 단계; 뉴럴 네트워크를 이용하여 상기 제1 sRGB 영상의 색역을 DCI-P3(Digital Cinema Initiative-P3)의 색역으로 변환한 제1 변환 영상을 획득하는 단계; 및 상기 제1 sRGB 영상에 제1 색 변환 행렬을 적용함으로써 생성된 제2 변환 영상 및 상기 제1 변환 영상에 기초하여, 상기 제1 sRGB 영상의 색역을 DCI-P3 색역으로 변환한 최종 변환 영상을 생성하는 단계를 포함하는, 방법
2 2
제1항에 있어서, 상기 제1 변환 영상에서 오류가 발생한 부분을 나타내는 이진 지도를 생성하는 단계를 더 포함하고, 상기 최종 변환 영상을 생성하는 단계는, 상기 제2 변환 영상, 상기 제1 변환 영상 및 상기 이진 지도에 기초하여 상기 최종 변환 영상을 생성하는 단계를 포함하는, 방법
3 3
제2항에 있어서, 상기 제1 변환 영상에서 오류가 발생한 부분을 나타내는 이진 지도를 생성하는 단계는, 상기 제1 sRGB 영상 내의 각 픽셀과 상기 제1 변환 영상 내의 각 픽셀 간의 픽셀값 차이를 결정하는 단계; 및 상기 픽셀값 차이가 기준값 이상인 영역을 상기 제1 변환 영상에서 오류가 발생한 부분으로 결정하는 단계를 포함하는, 방법
4 4
제1항에 있어서, 상기 뉴럴 네트워크를 트레이닝하는 단계를 더 포함하고, 상기 뉴럴 네트워크를 트레이닝하는 단계는, 상기 컨텐트에 관한 DCI-P3의 색역을 갖는 제1 DCI-P3 영상을 획득하는 단계; 상기 제2 변환 영상과 상기 제1 DCI-P3 영상 간의 실제 잔차 영상(residual image)을 획득하는 단계; 및 상기 뉴럴 네트워크를, 상기 제1 sRGB 영상이 입력 데이터로서 입력되면 상기 제1 sRGB 영상에 관한 제1 추정 잔차 영상을 출력하고 상기 제1 추정 잔차 영상 및 상기 실제 잔차 영상 간의 차이를 최소화하도록 트레이닝하는 단계를 포함하고, 상기 제1 변환 영상을 획득하는 단계는, 상기 제1 sRGB 영상에서 상기 뉴럴 네트워크로부터 출력된 상기 추정 잔차 영상을 차분함으로써 상기 제1 변환 영상을 획득하는 단계를 포함하는, 방법
5 5
제1항에 있어서, 상기 뉴럴 네트워크를 트레이닝하는 단계를 더 포함하고, 상기 뉴럴 네트워크를 트레이닝하는 단계는, 상기 컨텐트에 관한 DCI-P3의 색역을 갖는 제1 DCI-P3 영상을 획득하는 단계; 상기 제1 DCI-P3 영상에 제2 색 변환 행렬을 적용함으로써 제2 sRGB 영상을 생성하는 단계; 상기 제2 sRGB 영상에 상기 제1 색 변환 행렬을 적용함으로써 제2 DCI-P3 영상을 생성하는 단계; 상기 제2 DCI-P3 영상과 상기 제1 DCI-P3 영상 간의 실제 잔차 영상을 획득하는 단계; 및 상기 뉴럴 네트워크를, 상기 제2 DCI-P3 영상이 입력 데이터로서 입력되면 상기 제2 DCI-P3 영상에 관한 제2 추정 잔차 영상을 출력하고 상기 제2 추정 잔차 영상 및 상기 실제 잔차 영상 간의 차이를 최소화하도록 트레이닝하는 단계를 포함하고, 상기 제1 변환 영상을 획득하는 단계는, 상기 제1 sRGB 영상에 상기 제1 색 변환 행렬을 적용함으로써 생성된 상기 제2 변환 영상에서 상기 뉴럴 네트워크로부터 출력된 상기 추정 잔차 영상을 차분함으로써 상기 제1 변환 영상을 획득하는 단계를 포함하는, 방법
6 6
제5항에 있어서, 상기 뉴럴 네트워크를 트레이닝하는 단계는, 상기 제1 DCI-P3 영상의 색 공간을 La*b* 색 공간으로 변환한 제1 La*b* 영상을 획득하는 단계; 상기 제2 DCI-P3 영상의 색 공간을 La*b* 색 공간으로 변환한 제2 La*b* 영상을 획득하는 단계; 상기 제1 La*b* 영상과 상기 제2 La*b* 영상 간의 잔차 영상을 상기 실제 잔차 영상으로서 획득하는 단계; 및 상기 뉴럴 네트워크를, 상기 제2 La*b* 영상이 입력 데이터로서 입력되면 상기 제2 La*b* 영상에 관한 제3 추정 잔차 영상을 출력하고 상기 제3 추정 잔차 영상 및 상기 실제 잔차 영상 간의 차이를 최소화하도록 트레이닝하는 단계를 더 포함하고, 상기 제1 변환 영상을 획득하는 단계는, 상기 제2 변환 영상의 색 공간을 La*b* 색 공간으로 변환한 영상에서 상기 뉴럴 네트워크로부터 출력된 상기 추정 잔차 영상을 차분함으로써 상기 제1 변환 영상을 획득하는 단계를 포함하는, 방법
7 7
제6항에 있어서, 상기 뉴럴 네트워크를 트레이닝하는 단계는, 상기 제2 DCI-P3 영상의 색 공간(color space)을 HSV(hue, saturation, value) 색 공간으로 변환한 HSV 영상을 획득하는 단계; 상기 HSV 영상의 채도(Saturation) 채널과 상기 제2 La*b* 영상을 결합한 제2 sLa*b* 영상을 획득하는 단계; 및 상기 뉴럴 네트워크를, 상기 제2 sLa*b* 영상이 입력 데이터로서 입력되면 상기 제2 sLa*b* 영상에 관한 제4 추정 잔차 영상을 출력하고 상기 제4 추정 잔차 영상 및 상기 실제 잔차 영상 간의 차이를 최소화하도록 트레이닝하는 단계를 더 포함하고, 상기 제1 변환 영상을 획득하는 단계는, 상기 제2 변환 영상을 변환한 제1 sLa*b* 영상에서 상기 뉴럴 네트워크로부터 출력된 상기 추정 잔차 영상을 차분함으로써 상기 제1 변환 영상을 획득하는 단계를 포함하는, 방법
8 8
영상을 변환하는 컴퓨팅 장치에 있어서, 하나 이상의 인스트럭션을 저장하는 메모리; 및 상기 하나 이상의 인스트럭션을 실행함으로써, 컨텐트에 관한 sRGB(standard Red Green Blue)의 색역(gamut)을 갖는 제1 sRGB 영상을 획득하고, 뉴럴 네트워크를 이용하여 상기 제1 sRGB 영상의 색역을 DCI-P3(Digital Cinema Initiative-P3)의 색역으로 변환한 제1 변환 영상을 획득하고, 상기 제1 sRGB 영상에 제1 색 변환 행렬을 적용함으로써 생성된 제2 변환 영상 및 상기 제1 변환 영상에 기초하여, 상기 제1 sRGB 영상의 색역을 DCI-P3 색역으로 변환한 최종 변환 영상을 생성하는 적어도 하나의 프로세서를 포함하는, 컴퓨팅 장치
9 9
제8항에 있어서, 상기 적어도 하나의 프로세서는, 상기 제1 변환 영상에서 오류가 발생한 부분을 나타내는 이진 지도를 생성하고, 상기 제2 변환 영상, 상기 제1 변환 영상 및 상기 이진 지도에 기초하여 상기 최종 변환 영상을 생성하는, 컴퓨팅 장치
10 10
제9항에 있어서, 상기 적어도 하나의 프로세서는, 상기 제1 sRGB 영상 내의 각 픽셀과 상기 제1 변환 영상 내의 각 픽셀 간의 픽셀값 차이를 결정하고, 상기 픽셀값 차이가 기준값 이상인 영역을 상기 제1 변환 영상에서 오류가 발생한 부분으로 결정하는, 컴퓨팅 장치
11 11
제8항에 있어서, 상기 적어도 하나의 프로세서는, 상기 컨텐트에 관한 DCI-P3의 색역을 갖는 제1 DCI-P3 영상을 획득하고, 상기 제2 변환 영상과 상기 제1 DCI-P3 영상 간의 실제 잔차 영상(residual image)을 획득하고, 상기 뉴럴 네트워크를, 상기 제1 sRGB 영상이 입력 데이터로서 입력되면 상기 제1 sRGB 영상에 관한 제1 추정 잔차 영상을 출력하고 상기 제1 추정 잔차 영상 및 상기 실제 잔차 영상 간의 차이를 최소화하도록 트레이닝하고, 상기 제1 sRGB 영상에서 상기 뉴럴 네트워크로부터 출력된 상기 추정 잔차 영상을 차분함으로써 상기 제1 변환 영상을 획득하는, 컴퓨팅 장치
12 12
제8항에 있어서, 상기 적어도 하나의 프로세서는, 상기 컨텐트에 관한 DCI-P3의 색역을 갖는 제1 DCI-P3 영상을 획득하고, 상기 제1 DCI-P3 영상에 제2 색 변환 행렬을 적용함으로써 제2 sRGB 영상을 생성하고, 상기 제2 sRGB 영상에 상기 제1 색 변환 행렬을 적용함으로써 제2 DCI-P3 영상을 생성하고, 상기 제2 DCI-P3 영상과 상기 제1 DCI-P3 영상 간의 실제 잔차 영상을 획득하고, 상기 뉴럴 네트워크를, 상기 제2 DCI-P3 영상이 입력 데이터로서 입력되면 상기 제2 DCI-P3 영상에 관한 제2 추정 잔차 영상을 출력하고 상기 제2 추정 잔차 영상 및 상기 실제 잔차 영상 간의 차이를 최소화하도록 트레이닝하고, 상기 제1 sRGB 영상에 상기 제1 색 변환 행렬을 적용함으로써 생성된 상기 제2 변환 영상에서 상기 뉴럴 네트워크로부터 출력된 상기 추정 잔차 영상을 차분함으로써 상기 제1 변환 영상을 획득하는, 컴퓨팅 장치
13 13
제12항에 있어서, 상기 적어도 하나의 프로세서는, 상기 제1 DCI-P3 영상의 색 공간을 La*b* 색 공간으로 변환한 제1 La*b* 영상을 획득하고, 상기 제2 DCI-P3 영상의 색 공간을 La*b* 색 공간으로 변환한 제2 La*b* 영상을 획득하고, 상기 제1 La*b* 영상과 상기 제2 La*b* 영상 간의 잔차 영상을 상기 실제 잔차 영상으로서 획득하고, 상기 뉴럴 네트워크를, 상기 제2 La*b* 영상이 입력 데이터로서 입력되면 상기 제2 La*b* 영상에 관한 제3 추정 잔차 영상을 출력하고 상기 제3 추정 잔차 영상 및 상기 실제 잔차 영상 간의 차이를 최소화하도록 트레이닝하고, 상기 제2 변환 영상의 색 공간을 La*b* 색 공간으로 변환한 영상에서 상기 뉴럴 네트워크로부터 출력된 상기 추정 잔차 영상을 차분함으로써 상기 제1 변환 영상을 획득하는, 컴퓨팅 장치
14 14
제13항에 있어서, 상기 적어도 하나의 프로세서는, 상기 제2 DCI-P3 영상의 색 공간(color space)을 HSV(hue, saturation, value) 색 공간으로 변환한 HSV 영상을 획득하고, 상기 HSV 영상의 채도(Saturation) 채널과 상기 제2 La*b* 영상을 결합한 제2 sLa*b* 영상을 획득하고, 상기 뉴럴 네트워크를, 상기 제2 sLa*b* 영상이 입력 데이터로서 입력되면 상기 제2 sLa*b* 영상에 관한 제4 추정 잔차 영상을 출력하고 상기 제4 추정 잔차 영상 및 상기 실제 잔차 영상 간의 차이를 최소화하도록 트레이닝하고, 상기 제2 변환 영상을 변환한 제1 sLa*b* 영상에서 상기 뉴럴 네트워크로부터 출력된 상기 추정 잔차 영상을 차분함으로써 상기 제1 변환 영상을 획득하는, 컴퓨팅 장치
15 15
하나 이상의 프로그램들을 저장하는 컴퓨터로 읽을 수 있는 기록매체로서, 상기 하나 이상의 프로그램들은, 컴퓨팅 장치의 하나 이상의 프로세서에 의해 실행될 때, 상기 컴퓨팅 장치로 하여금: 컨텐트에 관한 sRGB(standard Red Green Blue)의 색역(gamut)을 갖는 제1 sRGB 영상을 획득하고, 뉴럴 네트워크를 이용하여 상기 제1 sRGB 영상의 색역을 DCI-P3(Digital Cinema Initiative-P3)의 색역으로 변환한 제1 변환 영상을 획득하고, 상기 제1 sRGB 영상에 제1 색 변환 행렬을 적용함으로써 생성된 제2 변환 영상 및 상기 제1 변환 영상에 기초하여, 상기 제1 sRGB 영상의 색역을 DCI-P3 색역으로 변환한 최종 변환 영상을 생성하게 하는 명령어들을 포함하는, 컴퓨터로 읽을 수 있는 기록매체
지정국 정보가 없습니다
패밀리정보가 없습니다
국가 R&D 정보가 없습니다.