1 |
1
삭제
|
2 |
2
사용자가 실제 인테리어를 수행하는 공간으로서, 상기 사용자가 인테리어 시뮬레이션을 수행할 영역에 이미지 마커를 부착한 공간이며, 모바일 디바이스(200)로 영상을 전송하기 위하여 웹캠에 의하여 촬영되는 현실 공간(100);상기 웹캠을 통해 촬영된 상기 현실 공간(100)의 영상을 입력받아 가상 인테리어 시스템(300)으로 전송하고, 상기 가상 인테리어 시스템(300)으로부터 합성된 영상을 전송받아 디스플레이를 통하여 사용자에게 제공하는 모바일 디바이스(200);상기 모바일 디바이스(200)에 내장되어 있으며 공간 좌표 측정 모듈(310), 타겟 인식 모듈(320) 및 객체 증강 모듈(330)을 포함하고 있는 가상 인테리어 시스템(300); 및 상기 타겟 인식 모듈(320)에서 인식하기 위한 이미지 마커의 패턴 정보, 상기 패턴 정보에 해당하는 가상의 오브젝트에 대한 정보 및 시뮬레이션을 수행하기 위한 정보를 저장하고 있는 데이터베이스(400);를 포함하고, 상기 가상 인테리어 시스템(300)은 상기 모바일 디바이스(200)에서 입력된 영상으로부터 시뮬레이션을 수행할 영역을 측정하여 사용자가 시뮬레이션을 수행할 영역을 지정하게 하는 공간 좌표 측정 모듈(310);상기 공간 좌표 측정 모듈(310)에서 측정된 영역에 존재하는 상기 이미지 마커를 추출하고, 상기 추출된 이미지 마커의 패턴에 해당하는 가상의 오브젝트를 상기 데이터베이스(400)에서 검출하는 타겟 인식 모듈(320); 및상기 타겟 인식 모듈(320)에서 추출된 이미지 마커의 2차원 좌표를 가상의 3차원 좌표로 변환하고, 변환된 좌표에 상기 데이터베이스(400)에서 검출된 가상의 오브젝트를 합성하여 모바일 디바이스(200)로 전송하는 객체 증강 모듈(330)을 포함하는 것을 특징으로 하는 증강현실 기반 셀프 인테리어 시스템을 사용한 증강현실 기반 셀프 인테리어 방법에 있어서, 모바일 디바이스(200)에서 현실 공간(100)을 포함한 영상을 입력받는 영상 입력 단계(S101);상기 영상 입력 단계(S101)에서 입력받은 영상을 이진화하고 잡음을 제거하는 영상 전처리 단계(S102);상기 영상 전처리 단계(S102)에서 전처리된 영상에서 에지 정보를 추출하는 에지 정보 추출단계(S103);상기 모바일 디바이스(200)에 입력된 영상에서 사용자가 임시 가상 영역을 설정하고, 상기 에지 정보 추출단계(S103)에서 추출된 에지 중 상기 설정된 임시 가상 영역에 존재하는 에지 정보로부터 인테리어 수행을 위한 시뮬레이션 공간을 설정하고, 좌표 정보 및 인테리어 수행을 위한 정보를 추출하는 시뮬레이션 공간 설정 단계(S104);상기 시뮬레이션 공간 설정 단계(S104)에서 설정된 시뮬레이션 공간에 존재하는 에지 정보에서 코너 및 픽셀 정보를 이용하여 특징점을 추출하여 벡터정보로 변환하는 특징점 추출 단계(S105);상기 특징점 추출 단계(S105)에서 추출된 특징점들로 이루어진 패턴을 데이터베이스(400)에 저장되어 있는 패턴 정보와 매칭하여 해당 패턴과 연동된 인테리어를 수행할 가상의 오브젝트를 도출하고, 상기 패턴을 가지고 있는 이미지 마커의 2차원 좌표를 3차원 좌표로 변환하여 이를 상기 도출된 가상의 오브젝트에 적용하여 합성하는 객체 증강 단계(S106); 및상기 객체 증강 단계(S106)에서 합성된 영상을 모바일 디바이스(200)의 디스플레이를 통해 출력하여 사용자에게 시뮬레이션 정보를 제공하는 영상 출력 단계(S107)를 포함하는 증강현실 기반 셀프 인테리어 방법
|
3 |
3
제2항에 있어서,상기 시뮬레이션 공간 설정 단계(S104)는 모바일 디바이스(200)에 입력된 영상에서 사용자가 가상 시뮬레이션을 수행하는 공간을 선택하여 가상의 영상 처리 공간을 설정하고,상기 설정된 가상의 영상 처리 공간 내에 추출된 에지 정보들만을 추출하고 나머지 에지 정보를 제거하며,상기 추출된 에지 정보를 기반으로 현실 공간(100)의 2차원 좌표를 추출하고 추출된 좌표에 카메라 보정기법을 적용하여 3차원 공간정보를 도출하고,상기 도출된 정보를 기반으로 가상 공간의 정보를 추출하여 객체를 증강하기 위한 가상 공간을 생성하는 것을 특징으로 하는 증강현실 기반 셀프 인테리어 방법
|
4 |
4
제2항에 있어서,상기 객체 증강 단계(S106)는 상기 시뮬레이션 공간 설정 단계(S104)에서 설정된 공간의 픽셀과 히스토그램 분포를 추출하여 색상 정보와 상기 설정된 공간에 존재하는 에지 정보를 기반으로 코너 및 특징 벡터를 추출하고,상기 추출된 코너, 특징 벡터 및 색상 정보를 기반으로 검색 패턴을 생성하고, 상기 생성된 검색 패턴을 상기 데이터베이스(400)에 저장되어 있는 기준 패턴 정보와 상관관계를 분석하고 템플릿 매칭을 통해 비교하여 패턴 ID를 추출하며,상기 추출된 패턴 ID와 연동된 인테리어를 수행하기 위한 가상의 오브젝트를 검색하고,상기 추출된 검색 패턴에 해당하는 입력영상의 2차원 좌표를 카메라 보정하여 3차원 좌표로 변환하고, 변환된 좌표를 상기 시뮬레이션 공간 설정 단계(S104)에서 설정된 가상 공간에 정합하고, 상기 정합된 정보를 상기 검색된 가상의 오브젝트의 4차원 행렬에 적용하여 오브젝트 좌표 및 로테이션 값을 설정하며,상기 설정된 로테이션 값을 기반으로 가상 공간에 합성하는 것을 특징으로 하는 증강현실 기반 셀프 인테리어 방법
|