1 |
1
전자 장치에 있어서,디스플레이;메모리; 및상기 디스플레이 및 상기 메모리와 기능적으로 연결된 프로세서를 포함하고, 상기 프로세서는,상기 디스플레이를 통해 이미지를 표시하고,사용자 입력에 대응하여 선택 툴을 상기 이미지 상에 드로잉(drawing) 하고,상기 사용자 입력이 완료되면, 상기 선택 툴의 주위 객체에 기반하여 보정 범위를 결정하고,상기 보정 범위에 기반하여 상기 선택 툴을 상기 객체에 최근접 이웃(nearest neighbor)하도록 보정하여 표시하도록 설정된 전자 장치
|
2 |
2
제1항에 있어서, 상기 프로세서는, 상기 선택 툴을 위한 상기 사용자 입력을 감지하는 것에 대응하여, 상기 이미지를 슈퍼 픽셀(superpixel) 단위로 구분하도록 설정된 전자 장치
|
3 |
3
제2항에 있어서, 상기 프로세서는,상기 드로잉된 선택 툴 주위의 에지 정보를 랜덤 포레스트(random forest)에 기반하여 학습하여 상기 보정 범위를 결정하도록 설정된 전자 장치
|
4 |
4
제3항에 있어서, 상기 프로세서는,상기 이미지에서 탐색 영역 감소를 통해 불필요한 탐색 영역을 제거하고,제거되지 않은 나머지 탐색 영역의 슈퍼 픽셀을 대상 객체의 후보 슈퍼 픽셀로 생성하도록 설정된 전자 장치
|
5 |
5
제4항에 있어서, 상기 프로세서는,상기 후보 슈퍼 픽셀에 기반하여 라인 성분과 패치 성분을 검출하고,검출된 각 성분들에 학습된 모델을 참조하여 객체의 경계를 구분하도록 설정된 전자 장치
|
6 |
6
제2항에 있어서, 상기 프로세서는,랜덤 포레스트(random forest)에 기반하여 학습된 학습용 데이터에 기반하여 상기 보정 범위를 결정하도록 설정된 전자 장치
|
7 |
7
제6항에 있어서, 상기 프로세서는,상기 학습용 데이터의 획득을 위하여 준 지도 학습(semi-supervised learning)을 이용하는 것을 특징으로 하는 전자 장치
|
8 |
8
제2항에 있어서, 상기 프로세서는,상기 보정된 선택 툴의 추가 보정을 위한 사용자 입력을 감지하는 것에 대응하여, 상기 슈퍼 픽셀 단위로 선택 툴의 움직임을 조정하도록 설정된 전자 장치
|
9 |
9
제1항에 있어서, 상기 프로세서는,상기 사용자 입력에 대응하여 상기 선택 툴이 드로잉 되면, 상기 이미지에서 탐색 영역 감소(search range reduction)를 위한 동작을 처리하는 탐색 영역 처리 모듈; 및상기 선택 툴이 상기 객체에 최근접 이웃하도록, 상기 선택 툴의 크기를 보정하는 동작을 처리하는 특징점 처리 모듈을 포함하도록 설정된 전자 장치
|
10 |
10
제1항에 있어서, 상기 프로세서는,보정된 선택 툴의 추가 보정 시 슈퍼 픽셀 단위로 마그네틱 기능에 의한 선택 툴의 움직임을 처리하는 마그네틱 처리 모듈을 포함하도록 설정된 전자 장치
|
11 |
11
제1항에 있어서, 상기 프로세서는,사용자의 손가락이 터치된 면적에 기반하여 선택 툴의 보정 범위를 결정하도록 설정된 전자 장치
|
12 |
12
전자 장치의 동작 방법에 있어서,디스플레이를 통해 이미지를 표시하는 과정,사용자 입력에 대응하여 선택 툴을 상기 이미지 상에 드로잉(drawing) 하는 과정,상기 사용자 입력이 완료되면, 상기 선택 툴의 주위 객체에 기반하여 보정 범위를 결정하는 과정,상기 보정 범위에 기반하여 상기 선택 툴을 상기 객체에 최근접 이웃(nearest neighbor)하도록 보정하여 표시하는 과정을 포함하는 방법
|
13 |
13
제12항에 있어서, 상기 보정 범위를 결정하는 과정은,상기 선택 툴을 위한 상기 사용자 입력을 감지하는 것에 대응하여, 상기 이미지를 슈퍼 픽셀(superpixel) 단위로 구분하는 과정을 포함하는 방법
|
14 |
14
제13항에 있어서, 상기 보정 범위를 결정하는 과정은,상기 드로잉된 선택 툴 주위의 에지 정보를 랜덤 포레스트(random forest)에 기반하여 학습하여 상기 보정 범위를 결정하는 과정을 포함하는 방법
|
15 |
15
제14항에 있어서, 상기 보정 범위를 결정하는 과정은,상기 이미지에서 탐색 영역 감소를 통해 불필요한 탐색 영역을 제거하는 과정,제거되지 않은 나머지 탐색 영역의 슈퍼 픽셀을 대상 객체의 후보 슈퍼 픽셀로 생성하는 과정을 포함하는 방법
|
16 |
16
제15항에 있어서, 상기 보정 범위를 결정하는 과정은,상기 후보 슈퍼 픽셀에 기반하여 라인 성분과 패치 성분을 검출하는 과정,검출된 각 성분들에 학습된 모델을 참조하여 객체의 경계를 구분하는 과정을 포함하는 방법
|
17 |
17
제13항에 있어서, 상기 보정 범위를 결정하는 과정은,랜덤 포레스트(random forest)에 기반하여 학습된 학습용 데이터에 기반하여 상기 보정 범위를 결정하는 과정을 포함하고,상기 학습용 데이터의 획득을 위하여 준 지도 학습(semi-supervised learning)을 이용하는 것을 특징으로 하는 방법
|
18 |
18
제13항에 있어서,상기 보정된 선택 툴의 추가 보정을 위한 사용자 입력을 감지하는 과정,상기 사용자 입력에 대응하여, 상기 슈퍼 픽셀 단위로 선택 툴의 움직임을 조정하는 과정을 포함하는 방법
|
19 |
19
제12항에 있어서, 상기 보정하는 과정은,상기 사용자 입력에 대응하여 상기 선택 툴이 드로잉 되면, 상기 이미지에서 탐색 영역 감소(search range reduction)를 위한 동작을 처리하는 과정,상기 선택 툴이 상기 객체에 최근접 이웃하도록, 상기 선택 툴의 크기를 보정하는 과정을 포함하는 방법
|
20 |
20
제12항에 있어서, 상기 보정 범위를 결정하는 과정은,사용자의 손가락이 터치된 면적에 기반하여 선택 툴의 보정 범위를 결정하는 과정을 포함하는 방법
|