맞춤기술찾기

이전대상기술

증강현실 응용을 위한 환경 모델링 방법 및 장치

  • 기술번호 : KST2015114458
  • 담당센터 : 대전기술혁신센터
  • 전화번호 : 042-610-2279
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 본 발명은 증강현실 응용을 위한 환경 모델링 방법에 있어서, 카메라를 통해 2차원 영상을 획득하고, 사용자 상호작용을 통해 상기 획득된 영상에서 기설정된 수의 소실점을 추정하고, 앞쪽 면을 정의하는 과정과, 상기 추정된 소실점과 정의된 앞쪽 면을 이용하여 상기 2차원 영상으로부터 3차원 지역의 깊이를 결정을 통해 평면을 산출하여 3차원 박스 모델을 획득하는 과정과, 상기 3차원 박스 모델이 획득된 영상으로부터 특징점을 검출하고, 가속도 센서의 센싱 정보를 통해 획득된 중력 정보를 이용하여 상기 검출된 특징점을 중력-정렬 이미지의 특징점으로 매칭하는 과정과, 상기 특징점 매칭을 통해 3차원 복원을 수행하여 가상 어노테이션을 생성하는 과정을 포함함을 특징으로 한다.
Int. CL G06T 17/00 (2006.01)
CPC G06T 19/006(2013.01) G06T 19/006(2013.01) G06T 19/006(2013.01)
출원번호/일자 1020120100320 (2012.09.11)
출원인 한국과학기술원
등록번호/일자 10-1410273-0000 (2014.06.16)
공개번호/일자 10-2014-0033868 (2014.03.19) 문서열기
공고번호/일자 (20140620) 문서열기
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 등록
심사진행상태 수리
심판사항
구분 신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2012.09.11)
심사청구항수 15

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 한국과학기술원 대한민국 대전광역시 유성구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 우운택 대한민국 대전광역시 유성구
2 이원우 대한민국 대전광역시 유성구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 특허법인 에이치엠피 대한민국 서울특별시 중구 세종대로*길 **, *층 (서소문동, 부영빌딩)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
1 한국과학기술원 대전광역시 유성구
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2012.09.11 수리 (Accepted) 1-1-2012-0731730-64
2 출원인정보변경(경정)신고서
Notification of change of applicant's information
2013.02.01 수리 (Accepted) 4-1-2013-5019983-17
3 의견제출통지서
Notification of reason for refusal
2013.10.18 발송처리완료 (Completion of Transmission) 9-5-2013-0717926-68
4 [거절이유 등 통지에 따른 의견]의견(답변, 소명)서
[Opinion according to the Notification of Reasons for Refusal] Written Opinion(Written Reply, Written Substantiation)
2013.11.25 수리 (Accepted) 1-1-2013-1068385-09
5 [명세서등 보정]보정서
[Amendment to Description, etc.] Amendment
2013.11.25 보정승인간주 (Regarded as an acceptance of amendment) 1-1-2013-1068386-44
6 거절결정서
Decision to Refuse a Patent
2014.04.28 발송처리완료 (Completion of Transmission) 9-5-2014-0290617-51
7 [명세서등 보정]보정서(재심사)
Amendment to Description, etc(Reexamination)
2014.05.29 보정승인 (Acceptance of amendment) 1-1-2014-0508526-50
8 등록결정서
Decision to Grant Registration
2014.06.09 발송처리완료 (Completion of Transmission) 9-5-2014-0395131-58
9 출원인정보변경(경정)신고서
Notification of change of applicant's information
2014.12.24 수리 (Accepted) 4-1-2014-5157968-69
10 출원인정보변경(경정)신고서
Notification of change of applicant's information
2014.12.24 수리 (Accepted) 4-1-2014-5157993-01
11 출원인정보변경(경정)신고서
Notification of change of applicant's information
2014.12.24 수리 (Accepted) 4-1-2014-5158129-58
12 출원인정보변경(경정)신고서
Notification of change of applicant's information
2019.04.24 수리 (Accepted) 4-1-2019-5081392-49
13 출원인정보변경(경정)신고서
Notification of change of applicant's information
2020.05.15 수리 (Accepted) 4-1-2020-5108396-12
14 출원인정보변경(경정)신고서
Notification of change of applicant's information
2020.06.12 수리 (Accepted) 4-1-2020-5131486-63
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
증강현실 응용을 위한 환경 모델링 방법에 있어서,카메라를 통한 2차원 영상을 획득하고, 사용자 상호작용을 통해 상기 획득된 영상에서 기설정된 수의 소실점을 추정하고, 앞쪽 면을 정의하는 과정과,상기 추정된 소실점과 정의된 앞쪽 면을 이용하여 상기 2차원 영상으로부터 3차원 지역의 깊이를 결정을 통해 평면을 산출하여 3차원 박스 모델을 획득하는 과정과,상기 3차원 박스 모델이 획득된 영상으로부터 특징점을 검출하고, 가속도 센서의 센싱정보를 통해 획득된 중력 정보를 이용하여 상기 검출된 특징점을 중력-정렬 이미지의 특징점으로 매칭하는 과정과,상기 특징점 매칭을 통해 3차원 복원을 수행하여 가상 어노테이션을 생성하는 과정을 포함함을 특징으로 하는 증강현실 응용을 위한 환경 모델링 방법
2 2
제1항에 있어서, 상기 가상 어노테이션을 생성하는 과정은,카메라를 통해 획득된 영상으로부터 소정의 이미지를 획득하고, 상기 획득된 이미지 상에서 소실점을 추정하는 과정과,상기 획득된 영상 내에 존재하는 패턴 영상 간에 호모그래피(homography)를 산출하여 상기 획득된 이미지로부터 카메라의 이동 방향 및 속도에 따라 발생된 시점 왜곡을 제거하는 과정과,상기 왜곡이 제거된 이미지 내에서 발생된 사용자 제스처를 통해 정의된 꼭지점 좌표 및 연결 정보를 입력받아 정면을 정의하는 과정과,상기 정의된 꼭지점 좌표 중 특정 꼭지점 좌표를 선택하고 상기 선택된 꼭지점 좌표로부터 수직방향으로 발생된 사용자 제스처에 대응하는 선을 이용하여 깊이를 결정하는 과정과,상기 정의된 정면 및 깊이 결정을 통해 상기 왜곡이 제거된 이미지의 평면을 산출하고, 상기 왜곡이 제거된 이미지의 평면으로부터 특징점을 추출하는 과정과,상기 추출된 특징점으로부터 6자유도 자세를 추정하는 과정을 포함함을 특징으로 하는 증강현실 응용을 위한 환경 모델링 방법
3 3
제1항에 있어서, 상기 소실점을 추정하는 과정은,상기 획득된 이미지로부터 적어도 하나 이상의 선분을 검출하고, 상기 검출된 선분에서 기설정된 역치 이하의 선분들을 제거하고, 상기 기설정된 역치 이상의 선분 중 X, Y, Z축에 각각 대응하는 소실점으로부터 추정됨을 특징으로 하는 증강현실 응용을 위한 환경 모델링 방법
4 4
제2항에 있어서, 상기 시점 왜곡을 제거하는 과정은,적어도 둘 이상의 카메라 영상에 투영된 왜곡을 포함하는 이미지들에 대한 회전 행렬을 획득하고, 상기 왜곡을 포함하는 이미지들에서 서로 대응되는 점들을 통해 와핑 호모그래피를 적용하여 왜곡이 보정된 이미지를 획득되어 수행됨을 특징으로 하는 증강현실 응용을 위한 환경 모델링 방법
5 5
제2항에 있어서, 상기 꼭지점 좌표는,상기 왜곡이 제거된 이미지가 디스플레이된 터치스크린 상에서 사용자 인터럽트와의 상호작용을 통해 형성된 사각형의 각 꼭지점 좌표를 통해 정의됨을 특징으로 하는 증강현실 응용을 위한 환경 모델링 방법
6 6
제2항에 있어서, 상기 정의된 꼭지점 좌표와 X, Y 좌표는 동일하고 Z 좌표가 상이한 후면의 4개의 꼭지점 좌표를 정의하는 과정을 더 포함함을 특징으로 하는 증강현실 응용을 위한 환경 모델링 방법
7 7
제2항에 있어서, 상기 깊이를 결정하는 과정은,상기 사용자 제스처에 대응하는 선을 통해 상기 왜곡이 제거된 이미지 후면의 꼭지점 좌표 중 하나의 위치를 결정하고, 상기 위치 결정된 꼭지점 좌표의 X 및 Y 좌표를 이용하여 결정됨을 특징으로 하는 증강현실 응용을 위한 환경 모델링 방법
8 8
제2항에 있어서, 상기 사용자 제스처는,사용자 접촉에 기인하여 터치스크린 상에서 발생되는 포인팅(pointing)동작으로, 상기 포인팅 동작의 움직임에 따라 상기 터치스크린 상에 실시간으로 시각화됨을 특징으로 하는 증강현실 응용을 위한 환경 모델링 방법
9 9
제1항에 있어서, 상기 중력-정렬 이미지는,프레임 단위의 객체가 입력된 영상으로부터 중력벡터 를 가지는 소정의 프레임 내 수직 방향에서의 추정된 소실점과, 상기 수직 방향을 통과하는 소정의 선분과 , 방향 벡터로 정의되는 고유의 매개변수의 점을 통해 상기 소정의 선분 의 방향으로부터 영상을 회전시키는 2차원 회전 변환 행렬 을 하기의 수학식을 통해 계산하여 상기 소정의 프레임에 적용하여 생성됨을 특징으로 하는 증강현실 응용을 위한 환경 모델링 방법
10 10
증강현실 응용을 위한 모델링 장치에 있어서,가속도 센서부와,영상을 획득하는 촬영부와,상기 촬영부로부터 획득된 영상에서 기설정된 수의 소실점과 복수의 평면을 추정하고, 상기 추정된 소실점 및 평면을 이용하여 상기 촬영부로부터 획득된 영상으로부터 3차원 지역의 깊이를 결정하여 3차원 박스 모델을 획득하여 특징점을 검출하고, 상기 가속도 센서부로부터 획득된 중력 정보를 이용하여 상기 검출된 특징점을 중력-정렬 이미지의 특징점으로 매칭하고, 상기 특징점 매칭을 통해 3차원 복원을 수행하여 가상 어노테이션을 생성하도록 제어하는 제어부를 포함함을 특징으로 하는 증강현실 응용을 위한 환경 모델링 장치
11 11
제10항에 있어서, 상기 제어부는,상기 촬영부로부터 획득된 영상으로부터 소정의 이미지를 캡처하고, 상기 캡처된 이미지 상에서 소실점을 추정하는 소실점 추정부와,상기 획득된 영상 내에 존재하는 패턴 영상 간에 호모그래피를 산출하여 상기 획득된 이미지로부터 카메라의 이동 방향 및 속도에 따라 발생된 시점 왜곡을 제거하는 왜곡 보정부와,상기 왜곡 보정부로부터 왜곡이 제거된 이미지 내에서 발생된 사용자 제스처를 통해 정의된 꼭지점 좌표 및 연결 정보를 입력받아 정면을 정의하는 좌표 정의부와,상기 정의된 꼭지점 좌표 중 입력부를 통해 특정 꼭지점 좌표를 선택받고, 상기 선택된 꼭지점 좌표로부터 수직방향으로 발생된 사용자 제스처에 대응하는 선을 이용하여 깊이를 결정하는 깊이 결정부와,상기 정의된 정면 및 깊이 결정을 통해 상기 왜곡이 제거된 이미지의 평면을 산출하는 평면 산출부와,상기 산출된 이미지의 평면으로부터 특징점을 추출하여 6자유도 자세를 추정하는 자세 추정부를 포함함을 특징으로 하는 증강현실 응용을 위한 환경 모델링 장치
12 12
제11항에 있어서, 상기 소실점 추정부는,상기 획득된 이미지로부터 적어도 하나 이상의 선분을 검출하고, 상기 검출된 선분에서 기설정된 역치 이하의 선분들을 제거하고, 상기 기설정된 역치 이상의 선분 중 X, Y, Z축에 각각 대응하는 소실점으로부터 추정함을 특징으로 하는 증강현실 응용을 위한 환경 모델링 장치
13 13
제11항에 있어서, 상기 왜곡 보정부는,적어도 둘 이상의 카메라 영상에 투영된 왜곡을 포함하는 이미지들에 대한 회전 행렬을 획득하고, 상기 왜곡을 포함하는 이미지들에서 서로 대응되는 점들을 통해 와핑 호모그래피 를 적용하여 왜곡이 보정된 이미지를 획득되어 수행됨을 특징으로 하는 증강현실 응용을 위한 환경 모델링 장치
14 14
제11항에 있어서, 상기 꼭지점 좌표는,상기 왜곡이 제거된 이미지가 디스플레이된 터치스크린 상에서 사용자 인터럽트와의 상호작용을 통해 형성된 사각형의 각 꼭지점 좌표를 통해 정의됨을 특징으로 하는 증강현실 응용을 위한 환경 모델링 장치
15 15
제10항에 있어서, 상기 중력-정렬 이미지는,프레임 단위의 객체가 입력된 영상으로부터 중력벡터 를 가지는 소정의 프레임 내 수직 방향에서의 추정된 소실점과, 상기 수직 방향을 통과하는 소정의 선분과 , 방향 벡터로 정의되는 고유의 매개변수의 점을 통해 상기 소정의 선분 의 방향으로부터 영상을 회전시키는 2차원 회전 변환 행렬 을 하기의 수학식을 통해 계산하여 상기 소정의 프레임에 적용하여 생성됨을 특징으로 하는 증강현실 응용을 위한 환경 모델링 장치
지정국 정보가 없습니다
패밀리정보가 없습니다
순번, 연구부처, 주관기관, 연구사업, 연구과제의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 국가R&D 연구정보 정보 표입니다.
순번 연구부처 주관기관 연구사업 연구과제
1 교육과학기술부 실감교류인체감응솔루션연구단 글로벌프론티어사업 4D+ 증강현실을 위한 실시간 정합 및 지능형 정보증강 기술 개발