맞춤기술찾기

이전대상기술

상호작용형 실시간 증강현실 시스템과 그 방법, 및 상기 방법을 구현하는 프로그램이 기록된 기록매체

  • 기술번호 : KST2015174240
  • 담당센터 : 광주기술혁신센터
  • 전화번호 : 062-360-4654
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 본 발명은 현실 환경의 미니어처와 가상 환경의 디지털 콘텐츠 간 상호작용 기술에 관련한 상호작용형 실시간 증강현실 시스템과 그 방법 및 상기 방법을 구현하는 프로그램이 기록된 기록매체에 관한 것이다. 본 발명은 미리 정해진 스토리를 고려하여 현실 환경과 가상 콘텐츠 간 상호작용을 위한 입력 정보를 획득하는 입력 정보 획득부; 획득된 입력 정보에 따라 가상 콘텐츠를 결정하는 가상 콘텐츠 결정부; 및 미리 얻어진 가상 콘텐츠의 증강 위치를 이용하여 현실 환경과 가상 콘텐츠를 매칭시키는 매칭부를 포함하는 것을 특징으로 하는 상호작용형 실시간 증강현실 시스템을 제공한다. 본 발명에 따르면, 도구를 사용하지 않고도 현실 환경과 가상 콘텐츠 간의 상호 작용을 구현할 수 있으며, 자연 특징점을 이용한 증강으로 인해 보다 향상된 몰입감을 얻을 수 있다.
Int. CL G06F 17/00 (2006.01) G06Q 50/10A0 (2006.01) G06F 3/00 (2006.01)
CPC
출원번호/일자 1020100019047 (2010.03.03)
출원인 광주과학기술원
등록번호/일자 10-1135186-0000 (2012.04.03)
공개번호/일자 10-2011-0099998 (2011.09.09) 문서열기
공고번호/일자 (20120416) 문서열기
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 소멸
심사진행상태 수리
심판사항
구분 신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2010.03.03)
심사청구항수 16

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 광주과학기술원 대한민국 광주광역시 북구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 우운택 대한민국 광주광역시 북구
2 김기영 대한민국 광주광역시 북구
3 박영민 대한민국 광주광역시 북구
4 백운혁 대한민국 광주광역시 북구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 특허법인우인 대한민국 서울특별시 강남구 역삼로 ***, *층(역삼동, 중평빌딩)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
1 인텔렉추얼디스커버리 주식회사 서울특별시 강남구
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2010.03.03 수리 (Accepted) 1-1-2010-0136798-32
2 [출원서등 보정]보정서
[Amendment to Patent Application, etc.] Amendment
2010.03.04 수리 (Accepted) 1-1-2010-0139490-01
3 선행기술조사의뢰서
Request for Prior Art Search
2011.05.12 수리 (Accepted) 9-1-9999-9999999-89
4 선행기술조사보고서
Report of Prior Art Search
2011.06.23 수리 (Accepted) 9-1-2011-0054575-55
5 의견제출통지서
Notification of reason for refusal
2011.08.12 발송처리완료 (Completion of Transmission) 9-5-2011-0453392-93
6 출원인정보변경(경정)신고서
Notification of change of applicant's information
2011.09.15 수리 (Accepted) 4-1-2011-5187089-85
7 [거절이유 등 통지에 따른 의견]의견(답변, 소명)서
[Opinion according to the Notification of Reasons for Refusal] Written Opinion(Written Reply, Written Substantiation)
2011.10.10 수리 (Accepted) 1-1-2011-0790319-94
8 [명세서등 보정]보정서
[Amendment to Description, etc.] Amendment
2011.10.10 보정승인간주 (Regarded as an acceptance of amendment) 1-1-2011-0790318-48
9 등록결정서
Decision to grant
2012.03.28 발송처리완료 (Completion of Transmission) 9-5-2012-0181696-44
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
미리 정해진 스토리를 고려하여 현실 환경과 가상 콘텐츠 간 상호작용을 위한 입력 정보를 획득하는 입력 정보 획득부;상기 획득된 입력 정보에 따라 상기 가상 콘텐츠를 결정하는 가상 콘텐츠 결정부;획득된 영상에서 특징점에 기반하여 상기 가상 콘텐츠의 증강 위치를 계산하는 위치 계산부; 및상기 가상 콘텐츠의 증강 위치를 이용하여 상기 현실 환경과 상기 가상 콘텐츠를 매칭시키는 매칭부를 포함하는 것을 특징으로 하는 상호작용형 증강현실 시스템
2 2
제 1 항에 있어서,GUI(Graphical User Interface)에 기반하여 상기 가상 콘텐츠를 저작하는 가상 콘텐츠 저작부를 더욱 포함하는 것을 특징으로 하는 상호작용형 증강현실 시스템
3 3
제 2 항에 있어서,상기 가상 콘텐츠 저작부는 상기 가상 콘텐츠를 저작할 때에 상기 현실 환경의 객체들에 크기 비례하게 상기 가상 콘텐츠를 얼라인(align)시키는 가상 콘텐츠 얼라인부를 포함하는 것을 특징으로 하는 상호작용형 증강현실 시스템
4 4
제 3 항에 있어서,상기 가상 콘텐츠 얼라인부는,상기 증강 위치를 설정하는 증강 위치 설정부;상기 설정된 증강 위치에 상기 가상 콘텐츠를 로드시키는 가상 콘텐츠 로드부;상기 로드된 가상 콘텐츠의 스케일을 결정하는 스케일 결정부; 및상기 스케일 결정된 가상 콘텐츠의 자세를 결정하는 자세 결정부를 포함하는 것을 특징으로 하는 상호작용형 증강현실 시스템
5 5
제 1 항에 있어서,상기 매칭부는 상기 현실 환경에 위치한 적어도 하나의 객체의 깊이 정보에 기반하여 상기 현실 환경과 상기 가상 콘텐츠 간 상호작용을 해석하는 상호작용 해석부를 포함하는 것을 특징으로 하는 상호작용형 증강현실 시스템
6 6
삭제
7 7
제 1 항에 있어서,상기 현실 환경에 대한 복원 영상과 상기 획득된 영상을 비교하며, 상기 비교를 통해 특징점들을 매칭시키는 제1 특징점 매칭부; 및상기 획득된 영상의 이전 영상과 상기 획득된 영상을 비교하며, 상기 비교를 통해 특징점들을 매칭시키는 제2 특징점 매칭부를 더욱 포함하며,상기 위치 계산부가 상기 증강 위치를 계산할 때에 상기 제1 특징점 매칭부와 상기 제2 특징점 매칭부는 동시 구동되는 것을 특징으로 하는 상호작용형 증강현실 시스템
8 8
제 7 항에 있어서,상기 제1 특징점 매칭부는,상기 획득된 영상에서 기준값 이상의 규모를 가진 적어도 하나의 객체를 1차 인식하며, 상기 획득된 영상에서 상기 기준값 미만의 규모를 가진 적어도 하나의 객체를 2차 인식하는 객체 인식부;상기 1차 인식된 객체의 개수와 상기 2차 인식된 객체의 개수를 합산하여 얻은 인식 객체 수가 미리 정해진 한계값보다 큰지 비교하는 비교부;상기 인식 객체 수가 상기 한계값보다 크면 상기 객체 인식부로 하여금 상기 획득된 영상에서 다시 객체를 인식케 하는 인식 제어부;상기 인식 객체 수가 상기 한계값보다 크지 않으면 상기 복원 영상을 이용하여 상기 인식된 객체들의 자세를 계산하는 자세 계산부; 및RANSAC(RANdom SAmple Consensus) 기반의 좌표계 생성 알고리즘에 따라 상기 자세 계산된 객체들 중에서 인라이어(inlier)에 해당하는 객체에 대한 정보를 취득하는 객체 정보 취득부를 포함하거나,상기 제2 특징점 매칭부는,상기 획득된 영상에 미리 획득된 객체가 있는지 판별하는 판별부;상기 획득된 영상에 상기 미리 획득된 객체가 있으면 SIFT(Scale Invariant Feature Transform) 알고리즘에 기반하여 특징점을 매칭시키는 특징점 매칭부;상기 매칭된 특징점의 개수가 기준 개수 이상인지 비교하는 비교부;상기 매칭된 특징점의 개수가 상기 기준 개수 이상이면 상기 이전 영상을 이용하여 영상을 획득하는 영상 획득 장치의 자세를 계산하는 자세 계산부;상기 획득된 영상에 상기 미리 획득된 객체가 없거나 상기 매칭된 특징점의 개수가 상기 기준 개수 미만이면 상기 영상 획득 장치로 하여금 영상을 다시 획득케 하는 영상 획득 제어부; 및상기 자세 계산된 영상 획득 장치에 따라 상기 획득된 영상에서 인라이어(inlier)에 해당하는 객체에 대한 정보를 취득하는 객체 정보 취득부를 포함하는 것을 특징으로 하는 상호작용형 증강현실 시스템
9 9
제 1 항에 있어서,상기 위치 계산부는,상기 획득된 영상의 컬러 정보를 이용하여 상기 특징점을 추출하거나, 균등한 공간 상에서 관측 확률에 근거하여 상기 특징점을 선별 추출하는 특징점 추출부; 및상기 특징점 외에 객체의 에지 정보 또는 객체의 2차원 정보를 더욱 이용하여 영상을 획득하는 영상 획득 장치의 위치를 추적하는 추적부를 포함하는 것을 특징으로 하는 상호작용형 증강현실 시스템
10 10
제 1 항에 있어서,상기 매칭부는 상기 가상 콘텐츠를 매칭시킬 때에 상기 획득된 영상의 깊이 정보 또는 상기 획득된 영상의 맥락 정보를 이용하는 것을 특징으로 하는 상호작용형 증강현실 시스템
11 11
(a) 미리 정해진 스토리를 고려하여 현실 환경과 가상 콘텐츠 간 상호작용을 위한 입력 정보를 획득하는 단계;(b) 상기 획득된 입력 정보에 따라 상기 가상 콘텐츠를 결정하고, 획득된 영상에서 특징점에 기반하여 상기 가상 콘텐츠의 증강 위치를 계산하는 단계; 및(c) 상기 가상 콘텐츠의 증강 위치를 이용하여 상기 현실 환경과 상기 가상 콘텐츠를 매칭시키는 단계를 포함하는 것을 특징으로 하는 증강현실에서의 상호작용 구현 방법
12 12
제 11 항에 있어서,상기 (b) 단계와 상기 (c) 단계의 중간 단계로서,(b'') GUI(Graphical User Interface)에 기반하여 상기 가상 콘텐츠를 저작하는 단계를 포함하는 것을 특징으로 하는 증강현실에서의 상호작용 구현 방법
13 13
제 12 항에 있어서,상기 (b'') 단계는 상기 가상 콘텐츠를 저작할 때에 상기 현실 환경의 객체들에 크기 비례하게 상기 가상 콘텐츠를 얼라인(align)시키는 것을 특징으로 하는 증강현실에서의 상호작용 구현 방법
14 14
제 13 항에 있어서,상기 (b'') 단계에서 상기 가상 콘텐츠를 얼라인시키는 것은,(b''a) 상기 증강 위치를 설정하는 단계;(b''b) 상기 설정된 증강 위치에 상기 가상 콘텐츠를 로드시키는 단계;(b''c) 상기 로드된 가상 콘텐츠의 스케일을 결정하는 단계; 및(b''d) 상기 스케일 결정된 가상 콘텐츠의 자세를 결정하는 단계를 포함하는 것을 특징으로 하는 증강현실에서의 상호작용 구현 방법
15 15
삭제
16 16
제 11 항에 있어서,(b'''') 상기 현실 환경에 대한 복원 영상과 상기 획득된 영상을 비교하며, 상기 비교를 통해 특징점들을 매칭시키는 단계; 및(b'''''') 상기 획득된 영상의 이전 영상과 상기 획득된 영상을 비교하며, 상기 비교를 통해 특징점들을 매칭시키는 단계를 더욱 포함하며,상기 (b) 단계는 상기 증강 위치를 계산할 때에 상기 (b'''') 단계와 상기 (b'''''') 단계를 동시 수행하는 것을 특징으로 하는 증강현실에서의 상호작용 구현 방법
17 17
제 16 항에 있어서,상기 (b'''') 단계는,(b''''a) 상기 획득된 영상에서 기준값 이상의 규모를 가진 적어도 하나의 객체를 1차 인식하며, 상기 획득된 영상에서 상기 기준값 미만의 규모를 가진 적어도 하나의 객체를 2차 인식하는 단계;(b''''b) 상기 1차 인식된 객체의 개수와 상기 2차 인식된 객체의 개수를 합산하여 얻은 인식 객체 수가 미리 정해진 한계값보다 큰지 비교하는 단계;(b''''c) 상기 인식 객체 수가 상기 한계값보다 크면 상기 객체 인식부로 하여금 상기 획득된 영상에서 다시 객체를 인식케 하며, 상기 인식 객체 수가 상기 한계값보다 크지 않으면 상기 복원 영상을 이용하여 상기 인식된 객체들의 자세를 계산하는 단계; 및(b''''d) RANSAC(RANdom SAmple Consensus) 기반의 좌표계 생성 알고리즘에 따라 상기 자세 계산된 객체들 중에서 인라이어(inlier)에 해당하는 객체에 대한 정보를 취득하는 단계를 포함하거나,상기 (b'''''') 단계는,(b''''''a) 상기 획득된 영상에 미리 획득된 객체가 있는지 판별하는 단계;(b''''''b) 상기 획득된 영상에 상기 미리 획득된 객체가 있으면 SIFT(Scale Invariant Feature Transform) 알고리즘에 기반하여 특징점을 매칭시키며, 상기 획득된 영상에 상기 미리 획득된 객체가 없으면 영상을 획득하는 영상 획득 장치로 하여금 영상을 다시 획득케 하는 단계;(b''''''c) 상기 매칭된 특징점의 개수가 기준 개수 이상인지 비교하는 단계;(b''''''d) 상기 매칭된 특징점의 개수가 상기 기준 개수 이상이면 상기 이전 영상을 이용하여 상기 영상 획득 장치의 자세를 계산하며, 상기 매칭된 특징점의 개수가 상기 기준 개수 미만이면 상기 영상 획득 장치로 하여금 영상을 다시 획득케 하는 단계; 및(b''''''e) 상기 자세 계산된 영상 획득 장치에 따라 상기 획득된 영상에서 인라이어(inlier)에 해당하는 객체에 대한 정보를 취득하는 단계를 포함하는 것을 특징으로 하는 증강현실에서의 상호작용 구현 방법
18 18
컴퓨터로 판독 가능한 기록매체로서, 제 11 항 내지 제 14 항 중 어느 한 항, 또는 제 16 항 및 제 17 항 중 어느 한 항에 따른 방법을 구현하는 프로그램이 기록된 기록매체
지정국 정보가 없습니다
순번, 패밀리번호, 국가코드, 국가명, 종류의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 패밀리정보 - 패밀리정보 표입니다.
순번 패밀리번호 국가코드 국가명 종류
1 US20110216090 US 미국 FAMILY

DOCDB 패밀리 정보

순번, 패밀리번호, 국가코드, 국가명, 종류의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 패밀리정보 - DOCDB 패밀리 정보 표입니다.
순번 패밀리번호 국가코드 국가명 종류
1 US2011216090 US 미국 DOCDBFAMILY
순번, 연구부처, 주관기관, 연구사업, 연구과제의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 국가R&D 연구정보 정보 표입니다.
순번 연구부처 주관기관 연구사업 연구과제
1 문화관광부 광주과학기술원 문화기술(CT 연구소) 육성사업(2007 선정) 실감,상호작용형차세대 u-Book 저작툴킷개발(2)