1 |
1
컴퓨팅 장치를 이용하여 영상을 변환하는 방법에 있어서, 컨텐트에 관한 sRGB(standard Red Green Blue)의 색역(gamut)을 갖는 제1 sRGB 영상을 획득하는 단계; 뉴럴 네트워크를 이용하여 상기 제1 sRGB 영상의 색역을 DCI-P3(Digital Cinema Initiative-P3)의 색역으로 변환한 제1 변환 영상을 획득하는 단계; 및 상기 제1 sRGB 영상에 제1 색 변환 행렬을 적용함으로써 생성된 제2 변환 영상 및 상기 제1 변환 영상에 기초하여, 상기 제1 sRGB 영상의 색역을 DCI-P3 색역으로 변환한 최종 변환 영상을 생성하는 단계를 포함하는, 방법
|
2 |
2
제1항에 있어서, 상기 제1 변환 영상에서 오류가 발생한 부분을 나타내는 이진 지도를 생성하는 단계를 더 포함하고, 상기 최종 변환 영상을 생성하는 단계는, 상기 제2 변환 영상, 상기 제1 변환 영상 및 상기 이진 지도에 기초하여 상기 최종 변환 영상을 생성하는 단계를 포함하는, 방법
|
3 |
3
제2항에 있어서, 상기 제1 변환 영상에서 오류가 발생한 부분을 나타내는 이진 지도를 생성하는 단계는, 상기 제1 sRGB 영상 내의 각 픽셀과 상기 제1 변환 영상 내의 각 픽셀 간의 픽셀값 차이를 결정하는 단계; 및 상기 픽셀값 차이가 기준값 이상인 영역을 상기 제1 변환 영상에서 오류가 발생한 부분으로 결정하는 단계를 포함하는, 방법
|
4 |
4
제1항에 있어서, 상기 뉴럴 네트워크를 트레이닝하는 단계를 더 포함하고, 상기 뉴럴 네트워크를 트레이닝하는 단계는, 상기 컨텐트에 관한 DCI-P3의 색역을 갖는 제1 DCI-P3 영상을 획득하는 단계; 상기 제2 변환 영상과 상기 제1 DCI-P3 영상 간의 실제 잔차 영상(residual image)을 획득하는 단계; 및 상기 뉴럴 네트워크를, 상기 제1 sRGB 영상이 입력 데이터로서 입력되면 상기 제1 sRGB 영상에 관한 제1 추정 잔차 영상을 출력하고 상기 제1 추정 잔차 영상 및 상기 실제 잔차 영상 간의 차이를 최소화하도록 트레이닝하는 단계를 포함하고, 상기 제1 변환 영상을 획득하는 단계는, 상기 제1 sRGB 영상에서 상기 뉴럴 네트워크로부터 출력된 상기 추정 잔차 영상을 차분함으로써 상기 제1 변환 영상을 획득하는 단계를 포함하는, 방법
|
5 |
5
제1항에 있어서, 상기 뉴럴 네트워크를 트레이닝하는 단계를 더 포함하고, 상기 뉴럴 네트워크를 트레이닝하는 단계는, 상기 컨텐트에 관한 DCI-P3의 색역을 갖는 제1 DCI-P3 영상을 획득하는 단계; 상기 제1 DCI-P3 영상에 제2 색 변환 행렬을 적용함으로써 제2 sRGB 영상을 생성하는 단계; 상기 제2 sRGB 영상에 상기 제1 색 변환 행렬을 적용함으로써 제2 DCI-P3 영상을 생성하는 단계; 상기 제2 DCI-P3 영상과 상기 제1 DCI-P3 영상 간의 실제 잔차 영상을 획득하는 단계; 및 상기 뉴럴 네트워크를, 상기 제2 DCI-P3 영상이 입력 데이터로서 입력되면 상기 제2 DCI-P3 영상에 관한 제2 추정 잔차 영상을 출력하고 상기 제2 추정 잔차 영상 및 상기 실제 잔차 영상 간의 차이를 최소화하도록 트레이닝하는 단계를 포함하고, 상기 제1 변환 영상을 획득하는 단계는, 상기 제1 sRGB 영상에 상기 제1 색 변환 행렬을 적용함으로써 생성된 상기 제2 변환 영상에서 상기 뉴럴 네트워크로부터 출력된 상기 추정 잔차 영상을 차분함으로써 상기 제1 변환 영상을 획득하는 단계를 포함하는, 방법
|
6 |
6
제5항에 있어서, 상기 뉴럴 네트워크를 트레이닝하는 단계는, 상기 제1 DCI-P3 영상의 색 공간을 La*b* 색 공간으로 변환한 제1 La*b* 영상을 획득하는 단계; 상기 제2 DCI-P3 영상의 색 공간을 La*b* 색 공간으로 변환한 제2 La*b* 영상을 획득하는 단계; 상기 제1 La*b* 영상과 상기 제2 La*b* 영상 간의 잔차 영상을 상기 실제 잔차 영상으로서 획득하는 단계; 및 상기 뉴럴 네트워크를, 상기 제2 La*b* 영상이 입력 데이터로서 입력되면 상기 제2 La*b* 영상에 관한 제3 추정 잔차 영상을 출력하고 상기 제3 추정 잔차 영상 및 상기 실제 잔차 영상 간의 차이를 최소화하도록 트레이닝하는 단계를 더 포함하고, 상기 제1 변환 영상을 획득하는 단계는, 상기 제2 변환 영상의 색 공간을 La*b* 색 공간으로 변환한 영상에서 상기 뉴럴 네트워크로부터 출력된 상기 추정 잔차 영상을 차분함으로써 상기 제1 변환 영상을 획득하는 단계를 포함하는, 방법
|
7 |
7
제6항에 있어서, 상기 뉴럴 네트워크를 트레이닝하는 단계는, 상기 제2 DCI-P3 영상의 색 공간(color space)을 HSV(hue, saturation, value) 색 공간으로 변환한 HSV 영상을 획득하는 단계; 상기 HSV 영상의 채도(Saturation) 채널과 상기 제2 La*b* 영상을 결합한 제2 sLa*b* 영상을 획득하는 단계; 및 상기 뉴럴 네트워크를, 상기 제2 sLa*b* 영상이 입력 데이터로서 입력되면 상기 제2 sLa*b* 영상에 관한 제4 추정 잔차 영상을 출력하고 상기 제4 추정 잔차 영상 및 상기 실제 잔차 영상 간의 차이를 최소화하도록 트레이닝하는 단계를 더 포함하고, 상기 제1 변환 영상을 획득하는 단계는, 상기 제2 변환 영상을 변환한 제1 sLa*b* 영상에서 상기 뉴럴 네트워크로부터 출력된 상기 추정 잔차 영상을 차분함으로써 상기 제1 변환 영상을 획득하는 단계를 포함하는, 방법
|
8 |
8
영상을 변환하는 컴퓨팅 장치에 있어서, 하나 이상의 인스트럭션을 저장하는 메모리; 및 상기 하나 이상의 인스트럭션을 실행함으로써, 컨텐트에 관한 sRGB(standard Red Green Blue)의 색역(gamut)을 갖는 제1 sRGB 영상을 획득하고, 뉴럴 네트워크를 이용하여 상기 제1 sRGB 영상의 색역을 DCI-P3(Digital Cinema Initiative-P3)의 색역으로 변환한 제1 변환 영상을 획득하고, 상기 제1 sRGB 영상에 제1 색 변환 행렬을 적용함으로써 생성된 제2 변환 영상 및 상기 제1 변환 영상에 기초하여, 상기 제1 sRGB 영상의 색역을 DCI-P3 색역으로 변환한 최종 변환 영상을 생성하는 적어도 하나의 프로세서를 포함하는, 컴퓨팅 장치
|
9 |
9
제8항에 있어서, 상기 적어도 하나의 프로세서는, 상기 제1 변환 영상에서 오류가 발생한 부분을 나타내는 이진 지도를 생성하고, 상기 제2 변환 영상, 상기 제1 변환 영상 및 상기 이진 지도에 기초하여 상기 최종 변환 영상을 생성하는, 컴퓨팅 장치
|
10 |
10
제9항에 있어서, 상기 적어도 하나의 프로세서는, 상기 제1 sRGB 영상 내의 각 픽셀과 상기 제1 변환 영상 내의 각 픽셀 간의 픽셀값 차이를 결정하고, 상기 픽셀값 차이가 기준값 이상인 영역을 상기 제1 변환 영상에서 오류가 발생한 부분으로 결정하는, 컴퓨팅 장치
|
11 |
11
제8항에 있어서, 상기 적어도 하나의 프로세서는, 상기 컨텐트에 관한 DCI-P3의 색역을 갖는 제1 DCI-P3 영상을 획득하고, 상기 제2 변환 영상과 상기 제1 DCI-P3 영상 간의 실제 잔차 영상(residual image)을 획득하고, 상기 뉴럴 네트워크를, 상기 제1 sRGB 영상이 입력 데이터로서 입력되면 상기 제1 sRGB 영상에 관한 제1 추정 잔차 영상을 출력하고 상기 제1 추정 잔차 영상 및 상기 실제 잔차 영상 간의 차이를 최소화하도록 트레이닝하고, 상기 제1 sRGB 영상에서 상기 뉴럴 네트워크로부터 출력된 상기 추정 잔차 영상을 차분함으로써 상기 제1 변환 영상을 획득하는, 컴퓨팅 장치
|
12 |
12
제8항에 있어서, 상기 적어도 하나의 프로세서는, 상기 컨텐트에 관한 DCI-P3의 색역을 갖는 제1 DCI-P3 영상을 획득하고, 상기 제1 DCI-P3 영상에 제2 색 변환 행렬을 적용함으로써 제2 sRGB 영상을 생성하고, 상기 제2 sRGB 영상에 상기 제1 색 변환 행렬을 적용함으로써 제2 DCI-P3 영상을 생성하고, 상기 제2 DCI-P3 영상과 상기 제1 DCI-P3 영상 간의 실제 잔차 영상을 획득하고, 상기 뉴럴 네트워크를, 상기 제2 DCI-P3 영상이 입력 데이터로서 입력되면 상기 제2 DCI-P3 영상에 관한 제2 추정 잔차 영상을 출력하고 상기 제2 추정 잔차 영상 및 상기 실제 잔차 영상 간의 차이를 최소화하도록 트레이닝하고, 상기 제1 sRGB 영상에 상기 제1 색 변환 행렬을 적용함으로써 생성된 상기 제2 변환 영상에서 상기 뉴럴 네트워크로부터 출력된 상기 추정 잔차 영상을 차분함으로써 상기 제1 변환 영상을 획득하는, 컴퓨팅 장치
|
13 |
13
제12항에 있어서, 상기 적어도 하나의 프로세서는, 상기 제1 DCI-P3 영상의 색 공간을 La*b* 색 공간으로 변환한 제1 La*b* 영상을 획득하고, 상기 제2 DCI-P3 영상의 색 공간을 La*b* 색 공간으로 변환한 제2 La*b* 영상을 획득하고, 상기 제1 La*b* 영상과 상기 제2 La*b* 영상 간의 잔차 영상을 상기 실제 잔차 영상으로서 획득하고, 상기 뉴럴 네트워크를, 상기 제2 La*b* 영상이 입력 데이터로서 입력되면 상기 제2 La*b* 영상에 관한 제3 추정 잔차 영상을 출력하고 상기 제3 추정 잔차 영상 및 상기 실제 잔차 영상 간의 차이를 최소화하도록 트레이닝하고, 상기 제2 변환 영상의 색 공간을 La*b* 색 공간으로 변환한 영상에서 상기 뉴럴 네트워크로부터 출력된 상기 추정 잔차 영상을 차분함으로써 상기 제1 변환 영상을 획득하는, 컴퓨팅 장치
|
14 |
14
제13항에 있어서, 상기 적어도 하나의 프로세서는, 상기 제2 DCI-P3 영상의 색 공간(color space)을 HSV(hue, saturation, value) 색 공간으로 변환한 HSV 영상을 획득하고, 상기 HSV 영상의 채도(Saturation) 채널과 상기 제2 La*b* 영상을 결합한 제2 sLa*b* 영상을 획득하고, 상기 뉴럴 네트워크를, 상기 제2 sLa*b* 영상이 입력 데이터로서 입력되면 상기 제2 sLa*b* 영상에 관한 제4 추정 잔차 영상을 출력하고 상기 제4 추정 잔차 영상 및 상기 실제 잔차 영상 간의 차이를 최소화하도록 트레이닝하고, 상기 제2 변환 영상을 변환한 제1 sLa*b* 영상에서 상기 뉴럴 네트워크로부터 출력된 상기 추정 잔차 영상을 차분함으로써 상기 제1 변환 영상을 획득하는, 컴퓨팅 장치
|
15 |
15
하나 이상의 프로그램들을 저장하는 컴퓨터로 읽을 수 있는 기록매체로서, 상기 하나 이상의 프로그램들은, 컴퓨팅 장치의 하나 이상의 프로세서에 의해 실행될 때, 상기 컴퓨팅 장치로 하여금: 컨텐트에 관한 sRGB(standard Red Green Blue)의 색역(gamut)을 갖는 제1 sRGB 영상을 획득하고, 뉴럴 네트워크를 이용하여 상기 제1 sRGB 영상의 색역을 DCI-P3(Digital Cinema Initiative-P3)의 색역으로 변환한 제1 변환 영상을 획득하고, 상기 제1 sRGB 영상에 제1 색 변환 행렬을 적용함으로써 생성된 제2 변환 영상 및 상기 제1 변환 영상에 기초하여, 상기 제1 sRGB 영상의 색역을 DCI-P3 색역으로 변환한 최종 변환 영상을 생성하게 하는 명령어들을 포함하는, 컴퓨터로 읽을 수 있는 기록매체
|