맞춤기술찾기

이전대상기술

혼합현실 콘텐츠를 제공하는 장치 및 방법

  • 기술번호 : KST2019002636
  • 담당센터 : 대전기술혁신센터
  • 전화번호 : 042-610-2279
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 혼합현실 콘텐츠를 제공하는 장치가 개시된다. 이 장치는 360도 VR 영상 내의 관심객체를 인식하고 상기 관심객체에 대한 메타데이터를 생성하여, 상기 360도 VR 영상에 상기 메타데이터가 오버레이된 혼합현실 콘텐츠를 사용자에게 제공한다.
Int. CL H04N 21/81 (2011.01.01) H04N 13/30 (2018.01.01) H04N 13/00 (2018.01.01) H04N 13/20 (2018.01.01) G06T 7/20 (2017.01.01) G06T 19/00 (2011.01.01)
CPC H04N 21/816(2013.01) H04N 21/816(2013.01) H04N 21/816(2013.01) H04N 21/816(2013.01) H04N 21/816(2013.01) H04N 21/816(2013.01) H04N 21/816(2013.01)
출원번호/일자 1020170120574 (2017.09.19)
출원인 한국전자통신연구원
등록번호/일자
공개번호/일자 10-2019-0032084 (2019.03.27) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 공개
심사진행상태 수리
심판사항
구분 신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2020.07.17)
심사청구항수 14

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 한국전자통신연구원 대한민국 대전광역시 유성구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 김낙우 대한민국 서울특별시 동작구
2 이병탁 대한민국 경기도 수원시 영통구
3 이세형 대한민국 광주광역시 광산구
4 이현용 대한민국 광주광역시 북구
5 이형옥 대한민국 광주광역시 서구
6 김영선 대한민국 대전광역시 유성구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 특허법인지명 대한민국 서울특별시 강남구 남부순환로**** 차우빌딩*층

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2017.09.19 수리 (Accepted) 1-1-2017-0913306-15
2 [심사청구]심사청구서·우선심사신청서
2020.07.17 수리 (Accepted) 1-1-2020-0748553-42
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
다수의 카메라를 포함하는 영상획득부로부터 360도 영역을 촬영한 다수의 영상, 디바이스 정보 및 캡쳐 정보를 획득하는 단계;상기 다수의 영상을 스티칭하여 하나의 360도 VR 영상을 생성하는 단계;상기 360도 VR 영상을 선택된 도법(projection) 기반의 360도 VR 영상으로 변환하는 단계;상기 선택된 도법 기반의 360도 VR 영상 내에서 관심 객체를 인식하여 객체 인식 정보를 획득하는 단계;센서부로부터 상기 관심 객체에 대응하는 실제 객체의 상태를 센싱하여 센싱정보를 획득하는 단계;상기 디바이스 정보, 상기 캡쳐 정보, 상기 객체 인식 정보 및 상기 센싱정보를 기반으로 메타데이터를 생성하는 단계; 및상기 선택된 도법 기반의 360도 VR 영상과 상기 메타데이터를 맵핑하여 혼합현실 콘텐츠를 생성하고, 상기 혼합현실 콘텐츠를 전자 장치에 제공하는 단계;를 포함하는 혼합현실 콘텐츠를 제공하는 방법
2 2
제1항에서, 상기 메타데이터를 생성하는 단계는,상기 디바이스 정보로부터 추출된 카메라의 제조사명, 상기 360도 영역을 촬영한 카메라의 대수, 카메라 리그(Rig) 정보 및 카메라의 일련번호를 포함하는 디바이스 식별자 테이블을 생성하는 단계;상기 캡쳐 정보로부터 추출된 상기 카메라의 GPS 정보, 영상의 방위 정보, 촬영 시간 및 영상의 파일명을 포함하는 캡쳐 식별자 테이블을 생성하는 단계;상기 객체 인식 정보로부터 추출된 상기 관심 객체의 객체명, 상기 선택된 도법의 형식, 상기 선택된 도법 기반의 360도 VR 영상 내에서 상기 관심 객체의 위치 및 크기를 포함하는 객체 식별자 테이블을 생성하는 단계;상기 센싱 정보로부터 추출된 실제 객체의 GPS 정보 및 상태 정보를 포함하는 센싱 정보 식별자 테이블을 생성하는 단계; 및상기 디바이스 식별자 테이블, 상기 캡쳐 식별자 테이블, 상기 객체 식별자 테이블 및 상기 센싱 정보 식별자 테이블을 포함하도록 구성된 상기 메타데이터를 생성하는 단계;를 포함하는 혼합현실 콘텐츠를 제공하는 방법
3 3
제2항에서, 상기 카메라 리그 정보는,상기 다수의 카메라의 배열 형태를 나타내는 정보임을 특징으로 하는 혼합현실 콘텐츠를 제공하는 방법
4 4
제2항에서, 상기 센싱 정보 식별자 테이블은 상기 실제 객체의 객체명을 더 포함하고,상기 실제 객체의 객체명은 상기 관심 객체의 객체명으로부터 인식됨을 특징으로 혼합현실 콘텐츠를 제공하는 방법
5 5
제2항에서, 상기 센싱 정보 식별자 테이블을 생성하는 단계는,상기 실제 객체의 GPS 정보, 상기 카메라의 GPS 정보 및 상기 영상의 방위 정보를 기반으로, 상기 실제 객체와 상기 관심 객체가 서로 동일한 객체인지 판단하는 단계;상기 실제 객체와 상기 관심 객체가 서로 동일한 객체인 경우, 상기 관심 객체의 객체명을 상기 실제 객체의 객체명으로 생성하는 단계;상기 실제 객체의 객체명을 포함하도록 상기 센싱 정보 식별자 테이블을 구성하는 단계를 포함함을 특징으로 하는 혼합현실 콘텐츠를 제공하는 방법
6 6
제1항에서, 상기 객체 인식 정보를 획득하는 단계는,상기 360도 VR 영상으로부터 추출된 특징벡터 기반의 영상 인식 방법 또는 심층 학습(deep learning) 기반의 영상 인식 방법을 이용하여 상기 관심 객체를 인식하는 것인 혼합현실 콘텐츠를 제공하는 방법
7 7
제1항에서, 상기 객체 인식 정보를 획득하는 단계는,데이터베이스에 저장된 다수의 객체 영상을 특정 도법에 따라 변형하는 단계;상기 변형된 다수의 객체 영상을 감독자 학습 기반으로 심층망 모델에 적용하여, 상기 심층망 모델의 파라미터를 학습하는 단계; 및상기 파라미터에 기초하여 상기 360도 VR 영상 내의 관심 객체를 인식하는 단계를 포함하는 것인 혼합현실 콘텐츠를 제공하는 방법
8 8
제1항에서, 상기 제공하는 단계 이후, 상기 전자 장치에서 상기 선택된 도법 기반의 360도 VR 영상에 상기 메타데이터에 대응하는 텍스트를 오버레이하는 단계를 더 포함하고,상기 선택된 도법 기반의 360도 VR 영상에 상기 텍스트를 오버레이하는 단계는 선택적으로 수행되는 것인 혼합현실 콘텐츠를 제공하는 방법
9 9
다수의 카메라를 포함하고, 상기 다수의 카메라로부터 360도 영역을 촬영한 다수의 영상, 상기 다수의 카메라의 디바이스 정보 및 상기 다수의 영상을 촬영하는 과정에서 생성되는 캡쳐 정보를 출력하는 영상 획득부;상기 다수의 영상을 스티칭하여 하나의 360도 VR 영상을 생성하는 스티칭부;상기 360도 VR 영상을 선택된 도법(projection) 기반의 360도 VR 영상으로 변환하는 영상 변환부;상기 선택된 도법 기반의 360도 VR 영상 내에서 관심 객체를 인식한 객체 인식 정보를 출력하는 객체 인식부;상기 관심 객체에 대응하는 실제 객체의 상태를 센싱하여 센싱정보를 출력하는 센서부; 및상기 디바이스 정보, 상기 캡쳐 정보, 상기 객체 인식 정보 및 상기 센싱정보를 기반으로 메타데이터를 생성하고, 상기 선택된 도법 기반의 360도 VR 영상과 상기 메타데이터를 맵핑하여 혼합현실 콘텐츠를 생성하여, 상기 혼합현실 콘텐츠를 디스플레이하는 전자 장치에 제공하는 혼합현실 관리서버;를 포함하는 혼합현실 콘텐츠를 제공하는 장치
10 10
제9항에서, 상기 혼합현실 관리서버는,상기 디바이스 정보로부터 추출된 카메라의 제조사명, 상기 360도 영역을 촬영한 카메라의 대수, 카메라 리그(Rig) 정보 및 카메라의 일련번호를 포함하는 디바이스 식별자 테이블;상기 캡쳐 정보로부터 추출된 상기 카메라의 GPS 정보, 영상의 방위 정보, 촬영 시간 및 영상의 파일명을 포함하는 캡쳐 식별자 테이블;상기 객체 인식 정보로부터 추출된 상기 관심 객체의 객체명, 상기 선택된 도법의 형식, 상기 선택된 도법 기반의 360도 VR 영상 내에서 상기 관심 객체의 위치 및 크기를 포함하는 객체 식별자 테이블; 및상기 센싱 정보로부터 추출된 실제 객체의 GPS 정보 및 상태 정보를 포함하는 센싱 정보 식별자 테이블;을 포함하도록 상기 메타데이터를 생성함을 특징으로 하는 혼합현실 콘텐츠를 제공하는 장치
11 11
제10항에서, 상기 센싱 정보 식별자 테이블은,상기 관심 객체의 객체명으로부터 인식된 상기 실제 객체의 객체명을 더 포함함을 특징으로 하는 혼합현실 콘텐츠를 제공하는 장치
12 12
제10항에서, 상기 혼합현실 관리서버는,상기 실제 객체의 GPS 정보, 상기 카메라의 GPS 정보 및 상기 영상의 방위 정보를 기반으로, 상기 실제 객체와 상기 관심 객체가 서로 동일한 객체인지 판단하여, 상기 실제 객체와 상기 관심 객체가 서로 동일한 객체인 경우, 상기 관심 객체의 객체명을 상기 실제 객체의 객체명으로 생성하고, 생성된 상기 실제 객체의 객체명을 포함하도록 상기 센싱 정보 식별자 테이블을 구성함을 특징으로 하는 혼합현실 콘텐츠를 제공하는 장치
13 13
제9항에서, 상기 객체 인식부는,상기 360도 VR 영상으로부터 추출된 특징벡터 기반의 영상 인식 방법 또는 심층 학습(deep learning) 기반의 영상 인식 방법을 이용하여 상기 관심 객체를 인식함을 특징으로 하는 혼합현실 콘텐츠를 제공하는 장치
14 14
제9항에서, 상기 객체 인식부는,데이터베이스에 저장된 다수의 객체 영상을 특정 도법에 따라 변형하고, 상기 변형된 다수의 객체 영상을 감독자 학습 기반으로 심층망 모델에 적용하여, 상기 심층망 모델의 파라미터를 학습하고, 상기 파라미터에 기초하여 상기 360도 VR 영상 내의 관심 객체를 인식하는 것인 혼합현실 콘텐츠를 제공하는 장치
지정국 정보가 없습니다
순번, 패밀리번호, 국가코드, 국가명, 종류의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 패밀리정보 - 패밀리정보 표입니다.
순번 패밀리번호 국가코드 국가명 종류
1 US10674077 US 미국 FAMILY
2 US20190089898 US 미국 FAMILY

DOCDB 패밀리 정보

순번, 패밀리번호, 국가코드, 국가명, 종류의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 패밀리정보 - DOCDB 패밀리 정보 표입니다.
순번 패밀리번호 국가코드 국가명 종류
1 US10674077 US 미국 DOCDBFAMILY
2 US2019089898 US 미국 DOCDBFAMILY
순번, 연구부처, 주관기관, 연구사업, 연구과제의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 국가R&D 연구정보 정보 표입니다.
순번 연구부처 주관기관 연구사업 연구과제
1 미래창조과학부 한국전자통신연구원 정부출연금사업(기관고유사업) 지역광부품 고도화를 위한 광융합 기술개발