맞춤기술찾기

이전대상기술

이동 로봇 입체 영상 기반 4D 체험 시스템 및 그 서비스 제공방법

  • 기술번호 : KST2015093363
  • 담당센터 : 대전기술혁신센터
  • 전화번호 : 042-610-2279
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 본 발명은 이동 로봇이 특정 지형을 이동하면서 전·후·상·하·좌·우로 흔들리는 움직임 정보를 파악하여 4D-의자에 앉아있는 사용자에게 이동 로봇에 앉아있는 것과 같은 실감효과를 제공하고, 입체 영상 카메라를 통해 촬영된 영상을 3D 입체 영상으로 재현함으로써, 실감효과를 극대화할 수 있는 4D 체험 서비스를 제공한다.
Int. CL G06Q 50/10B0 (2006.01) G06T 15/00 (2006.01)
CPC G06F 3/011(2013.01) G06F 3/011(2013.01) G06F 3/011(2013.01) G06F 3/011(2013.01)
출원번호/일자 1020090079731 (2009.08.27)
출원인 한국전자통신연구원
등록번호/일자
공개번호/일자 10-2011-0022232 (2011.03.07) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 취하
심사진행상태 수리
심판사항
구분 신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 N
심사청구항수 10

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 한국전자통신연구원 대한민국 대전광역시 유성구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 오현우 대한민국 대전광역시 유성구
2 장종현 대한민국 대전광역시 유성구
3 박광로 대한민국 대전광역시 서구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 특허법인지명 대한민국 서울특별시 강남구 남부순환로**** 차우빌딩*층

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2009.08.27 수리 (Accepted) 1-1-2009-0526365-55
2 출원인정보변경(경정)신고서
Notification of change of applicant's information
2015.02.02 수리 (Accepted) 4-1-2015-0006137-44
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
내장된 입체 영상 카메라와 각도 센서를 이용하여 3D 입체 영상 데이터 및 센싱 데이터를 각각 생성하는 이동 로봇; 상기 3D 입체 영상 데이터와 상기 센싱 데이터를 이용하여 상기 이동 로봇의 움직임을 분석하고, 분석결과에 따라 실감효과 메타데이터를 생성하여 상기 입체 영상 데이터에 생성된 상기 실감효과 메타데이터를 삽입한 ne-미디어를 생성하는 SMMD(Single Media Multi Device) 네트워크 서버; 및 상기 생성된 ne-미디어로부터 3D 영상과 상기 3D 영상에 동기 된 상기 실감효과 메타데이터를 분리하고, 분리된 상기 3D 영상과 상기 실감효과 메타데이터에 근거하여 상기 이동 로봇의 움직임에 대응하는 실감효과를 재현하는 실감효과 재현 디바이스를 제어하는 SMMD 홈서버 를 포함하는 것인 이동 로봇에 의해 획득된 입체 영상 기반의 4D 체험 시스템
2 2
제1항에 있어서, 상기 실감 효과 재현 디바이스는, 상기 SMMD 홈서버의 제어에 따라 상기 3D 영상을 출사하는 빔프로젝터; 출사된 상기 3D 영상을 재현하는 스크린; 및 상기 실감효과 메타데이터에 근거하여 상기 이동 로봇의 움직임에 대응하는 상기 실감효과를 제공하는 4D-의자를 포함하는 실감효과 디바이스 를 포함하는 것인 이동 로봇에 의해 획득된 입체 영상 기반의 4D 체험 시스템
3 3
제1항에 있어서, 상기 이동 로봇은, 상기 3D 입체 영상 데이터와 상기 센싱 데이터 간의 동기화를 위해 상기 3D 입체 영상 데이터와 상기 센싱 데이터에 기준 시간 정보를 실시간으로 삽입하는 기준 시간 삽입부; 상기 센싱 데이터의 전후 관계성을 분석하는 센싱 데이터 연관성 분석부; 상기 전후 관계성의 분석결과를 이용하여, 상기 센싱 데이터의 값들의 평균 및 편차를 포함하는 에그리게이션 모델을 선택하는 에그리게이션 모델 적용부; 상기 선택된 에그리게이션 모델에 따라 상기 센싱 데이터를 에그리게이션하는 센싱 데이터 에그리게이션부; 센싱 주기 제어명령에 응답하여 상기 각도 센서에 의해 획득된 센싱 데이터의 센싱 주기를 제어하는 센싱 주기 제어부; 상기 기준 시간 정보가 삽입된 3D 입체 영상 데이터를 무선 통신 방식에 따라 상기 SMMD 네트워크 서버로 전송하는 실시간 영상 데이터 전송부; 및 상기 에그리게이션된 센싱 데이터를 상기 SMMD 네트워크 서버로 실시간으로 전송하는 실시간 센싱 데이터 전송부 를 이동 로봇에 의해 획득된 입체 영상 기반의 4D 체험 시스템
4 4
제3항에 있어서, 상기 센싱 주기 제어부는, 상기 센싱 주기로 인한 상기 이동 로봇의 움직임 정보에 대한 분석 오류와 상기 이동 로봇의 이동 환경 변화에 따라 상기 센싱 주기를 제어하는 것인 이동 로봇에 의해 획득된 입체 영상 기반의 4D 체험 시스템
5 5
제3항에 있어서, 상기 기준 시간 정보가 삽입된 3D 입체 영상 데이터와 상기 에그리게이션된 센싱 데이터를 상기 SMMD 네트워크 서버로 실시간 전송을 위해 상기 3D 입체 영상 데이터와 상기 에그리게이션된 센싱 데이터의 실시간 전송 세션을 설정하는 실시간 세션 설정부 를 더 포함하는 것인 이동 로봇에 의해 획득된 입체 영상 기반의 4D 체험 시스템
6 6
제3항에 있어서, 상기 SMMD 네트워크 서버는, 상기 실시간 영상 데이터 전송부로부터 상기 3D 입체 영상 데이터를 수신하여, 좌 영상과 우 영상으로 배치하는 좌/우 영상 배치부; 상기 좌 영상 및 상기 우 영상에 상기 실감효과 메타데이터를 추가하여, 상기 ne-미디어를 생성하는 ne-미디어 생성부; 상기 생성된 ne-미디어에 실시간으로 실감효과 메타데이터를 추가하여, 상기 SMMD 네트워크 서버로 실시간으로 전송하는 실시간 ne-미디어 전송부; 상기 에그리게이션된 센싱 데이터에 근거하여 움직임 정보를 추출하는 움직임 추출부; 상기 움직임 정보의 추출 과정에서 발생된 오류 및 정정 사항에 기초한 상기 센싱 주기 제어 명령어를 상기 센싱 주기 제어부로 전송하는 센싱 주기 제어 명령 송신부; 상기 추출된 움직임 정보를 수신하고, 상기 움직임 정보에 대응하는 실감효과 메타데이터를 생성하는 실감효과 메타데이터 생성부; 및 상기 생성된 실감효과 메타데이터를 상기 ne-미디어 생성부로 전송하여 상기 좌 영상 및 상기 우 영상에 상기 실감효과 메타데이터를 실시간으로 삽입하는 실감효과 메타데이터 삽입부 를 포함하는 이동 로봇에 의해 획득된 입체 영상 기반의 4D 체험 시스템
7 7
제6항에 있어서, 상기 움직임 추출부는, 상기 에그리게이션된 센싱 데이터의 값들의 방향성을 추출하는 방향성 추출부; 상기 이동 로봇의 움직임 방향의 변화율을 나타내는 변곡성을 추출하는 변곡성 추출부; 상기 기준 시간 삽입부에 의해 삽입된 상기 기준 시간 정보에 근거하여 상기 이동 로봇의 일련의 움직임 정보에 움직임 시간을 동기화하는 동기화 추출부; 상기 움직임 방향으로 상기 이동 로봇의 속도를 추출하는 속도 추출부; 상기 이동 로봇의 3차원 상의 움직임 경로를 추적하는 경로 추적부; 및 상기 움직임 정보의 추출 과정에서, 기설정된 임계치 이상인 센싱 주기 및 상기 이동 로봇의 이동 환경의 변화 정도에 근거하여, 상기 센싱 주기의 변경이 필요한 경우를 분석하는 오류 정정부 를 포함하는 것인 이동 로봇에 의해 획득된 입체 영상 기반의 4D 체험 시스템
8 8
제1항에 있어서, 상기 SMMD 홈서버는, 상기 SMMD 네트워크 서버로부터 상기 ne-미디어를 실시간으로 수신하고, 상기 수신된 ne-미디어의 전송 프로토콜을 파싱하여, 상기 ne-미디어로부터 좌/우 영상 데이터와 실감효과 메타데이터를 분리하는 ne-미디어 파싱부; 상기 좌/우 영상 데이터를 좌 영상과 우 영상으로 분리하는 좌/우 영상 분리부; 상기 좌 영상과 상기 우 영상을 입력받아서 상기 좌 영상과 상기 우 영상을 동기시키는 영상 동기화부; ne-미디어 파싱부를 통해 실감효과 메타데이터를 전송받고, 전송받은 실감효과 메타데이터를 분석하는 실감효과 메타데이터 분석부; 상기 실감효과 메타데이터의 분석 결과에 근거하여 실감효과를 재현하기 위한 디바이스를 선택하는 실감효과 디바이스 매핑부; 상기 선택 결과에 근거하여 좌 영상 및 우 영상과 상기 선택된 디바이스를 동기시키는 미디어/디바이스 동기화부; 동기화된 상기 좌 영상과 상기 우 영상을 재생하는 미디어 재생부; 및 상기 실감효과 메타데이터에 대응하는 실감효과 데이터를 생성하고, 생성된 실감효과 데이터를 상기 실감효과 재현 디바이스로 전달하여, 상기 실감효과 재현 디바이스를 제어하는 실감효과 디바이스 제어부 를 포함하는 것인 이동 로봇에 의해 획득된 입체 영상 기반의 4D 체험 시스템
9 9
이동 로봇에 내장된 입체 영상 카메라와 각도 센서를 이용하여 3D 입체 영상 데이터 및 센싱 데이터를 각각 생성하는 단계; SMMD 네트워크 서버가 상기 생성된 3D 입체 영상 데이터와 상기 센싱 데이터를 이용하여 상기 이동 로봇의 움직임을 분석하고, 분석 결과에 근거하여 실감효과 메타데이터를 생성하고, 상기 입체 영상 데이터에 상기 생성된 실감효과 메타데이터를 삽입한 ne-미디어를 생성하는 단계; 및 SMMD 홈서버가 상기 생성된 ne-미디어로부터 3D 영상과 상기 3D 영상에 동기 된 상기 실감효과 메타데이터를 분리하고, 분리된 상기 3D 영상과 상기 실감효과 메타데이터에 근거하여 상기 이동 로봇의 움직임에 대응하는 실감효과를 재현하는 실감효과 재현 디바이스를 제어하는 단계 를 포함하는 것인 이동 로봇에 의해 획득된 입체 영상 기반의 4D 체험 서비스를 제공하는 방법
10 10
제9항에 있어서, 상기 실감 효과 재현 디바이스를 제어하는 단계는, 상기 SMMD 홈서버의 제어에 따라 상기 3D 영상을 출사하는 빔프로젝터를 제어하는 단계; 상기 출사된 3D 영상을 스크린상에 재현하는 단계; 및 상기 실감효과 메타데이터에 근거하여 상기 이동 로봇의 움직임에 대응하는 상기 실감효과를 제공하는 4D-의자를 포함하는 실감효과 디바이스를 제어하는 단계 를 포함하는 것인 이동 로봇에 의해 획득된 입체 영상 기반의 4D 체험 서비스를 제공하는 방법
지정국 정보가 없습니다
패밀리정보가 없습니다
순번, 연구부처, 주관기관, 연구사업, 연구과제의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 국가R&D 연구정보 정보 표입니다.
순번 연구부처 주관기관 연구사업 연구과제
1 지식경제부 한국전자통신연구원 IT성장동력기술개발 SMMD기반 유비쿼터스홈 미디어 서비스 시스템 개발