1 |
1
교육용 로봇과의 상호 작용을 위한 증강 현실 구현 장치에 있어서, 마커가 부착된 교육용 로봇을 촬영하여 영상 데이터를 생성하는 카메라 모듈;상기 영상 데이터로부터 상기 마커를 인식하고, 상기 인식된 마커에 기록된 제1 메타데이터를 추출하는 메타데이터 추출부;상기 제1 메타데이터에 대응되는 제2 메타 데이터를 콘텐츠 서버로부터 수신하고, 상기 수신된 제2 메타데이터에 기반하여 상기 교육용 로봇과의 상호 작용을 위한 적어도 하나의 가상 객체 및 교육 시나리오를 생성하는 생성부; 및 상기 생성된 교육 시나리오에 따라 상기 적어도 하나의 가상 객체를 상기 영상 데이터에 증강시키는 제어부;를 포함하고,상기 제어부는,상기 교육용 로봇의 동작을 제어하기 위한 사용자 입력 신호가 입력될 경우, 상기 사용자 입력 신호를 상기 교육용 로봇에 전송하여 상기 교육용 로봇을 제어하며, 상기 사용자 입력 신호에 따라 상기 교육용 로봇이 제어되는 동안 기 설정된 특정 영역에 상기 교육용 로봇이 위치할 경우, 상기 생성된 교육 시나리오 중 상기 기 설정된 특정 영역에 대응되는 상기 적어도 하나의 가상 객체를 상기 영상 데이터에 증강시키는, 증강 현실 구현 장치
|
2 |
2
제1항에 있어서, 상기 영상 데이터로부터 마커를 검출하여 상기 카메라 모듈의 자세를 추정하는 제1 추정부; 상기 영상 데이터로부터 상기 교육용 로봇을 검출하여 상기 교육용 로봇의 자세를 추정하는 제2 추정부; 및디스플레이부;를 더 포함하고, 상기 제어부는, 상기 카메라 모듈의 자세와 상기 교육용 로봇의 자세를 추정하도록 상기 제1 추정부 및 상기 제2 추정부를 제어하고, 상기 추정된 카메라 모듈의 자세와 상기 추정된 교육용 로봇의 자세에 따라 상기 적어도 하나의 가상 객체를 상기 영상 데이터 상에 적응적으로 증강시켜 상기 디스플레이부를 통해 디스플레이하는 것을 특징으로 하는 증강 현실 구현 장치
|
3 |
3
제1항에 있어서,상기 제어부는, 상기 교육용 로봇과 상기 가상 객체 간에 충돌 이벤트가 발생될 경우, 상기 충돌 이벤트를 처리하기 위한 제어 신호를 생성하여 상기 교육용 로봇에 전송하는 것을 특징으로 하는 증강 현실 구현 장치
|
4 |
4
제3항에 있어서,상기 제어부는, 상기 영상 데이터 상에 상기 가상 객체를 증강한 후, 상기 영상 데이터 상에서 상기 교육용 로봇과 상기 가상 객체와의 이격 거리를 산출하고, 상기 이격 거리가 기 설정된 기준값 이하인 경우, 상기 교육용 로봇과 상기 가상 객체 간에 충돌 이벤트를 발생시키는 것을 특징으로 하는 증강 현실 구현 장치
|
5 |
5
제3항에 있어서,상기 제어부는, 상기 교육용 로봇과 상기 가상 객체 간에 충돌 이벤트가 발생될 경우, X3D(Extensible 3D)를 이용하여 상기 충돌 이벤트를 가시화하는 것을 특징으로 하는 증강 현실 구현 장치
|
6 |
6
제1항에 있어서, 상기 교육용 로봇과 블루투스 통신하는 블루투스 통신부; 및 상기 콘텐츠 서버에 접속하여 상기 제2 메타 데이터를 수신하는 송수신부;를 더 포함하는 것을 특징으로 하는 증강 현실 구현 장치
|
7 |
7
삭제
|
8 |
8
삭제
|
9 |
9
제1항에 있어서, 상기 제1 메타데이터는,상기 제2 메타데이터의 저장 위치 정보를 포함하는 콘텐츠 서버 정보 및 콘텐츠 관련 정보를 포함하는 콘텐츠 메타데이터이고, 상기 제2 메타데이터는,증강 현실을 구현하기 위한 상세 메타데이터로, 콘텐츠, 상기 콘텐츠를 실행하는데 이용되는 미디어파일들의 저장 위치 정보, 상기 교육용 로봇 확장 모듈, 상기 교육용 로봇의 3차원 기하 정보, 가상 환경에서 상기 교육용 로봇과의 상호 작용 정보 , 교육 시나리오 정보 및 상기 증강을 위한 명세 기술 정보 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 증강 현실 구현 장치
|
10 |
10
제1항에 있어서,상기 마커는 QR 코드이고, 상기 QR 코드는, 상기 제1 메타데이터가 기록된 데이터 영역, 위치 검출 패턴, 방향 검출 패턴 및 상기 QR 코드의 외곽을 따라 형성된 사각형 패턴을 포함하는 것을 특징으로 하는 증강 현실 구현 장치
|
11 |
11
교육용 로봇과의 상호 작용을 위한 증강 현실 구현 방법에 있어서,카메라 모듈이 마커가 부착된 교육용 로봇을 촬영하여 영상 데이터를 생성하는 단계;메타데이터 추출부가 상기 영상 데이터로부터 상기 마커를 인식하고 상기 인식된 마커에 기록된 제1 메타데이터를 추출하는 단계;송수신부가 상기 제1 메타데이터에 대응되는 제2 메타 데이터를 콘텐츠 서버로부터 수신하는 단계;생성부가 상기 수신된 제2 메타데이터에 기반하여 상기 교육용 로봇과의 상호 작용을 위한 적어도 하나의 가상 객체 및 교육 시나리오를 생성하는 단계; 및블루투스 통신부가 상기 교육용 로봇의 동작을 제어하기 위한 사용자 입력 신호가 입력될 경우, 상기 교육용 로봇을 제어하도록 상기 사용자 입력 신호를 상기 교육용 로봇에 전송하는 단계; 및제어부가 상기 생성된 교육 시나리오에 따라 상기 적어도 하나의 가상 객체를 상기 영상 데이터에 증강시키는 단계;를 포함하고,상기 적어도 하나의 가상 객체를 상기 영상 데이터에 증강시키는 단계는,상기 사용자 입력 신호에 따라 상기 교육용 로봇이 제어되는 동안 기 설정된 특정 영역에 상기 교육용 로봇이 위치할 경우, 상기 생성된 교육 시나리오 중 상기 기 설정된 특정 영역에 대응되는 상기 적어도 하나의 가상 객체를 상기 영상 데이터에 증강시키는 것을 특징으로 하는 증강 현실 구현 방법
|
12 |
12
제11항에 있어서, 제1 추정부가 상기 영상 데이터로부터 마커를 검출하여 상기 카메라 모듈의 자세를 추정하는 단계; 및제2 추정부가 상기 영상 데이터로부터 상기 교육용 로봇을 검출하여 상기 교육용 로봇의 자세를 추정하는 단계;를 더 포함하고, 상기 적어도 하나의 가상 객체를 상기 영상 데이터에 증강시키는 단계는, 상기 추정된 카메라 모듈의 자세와 상기 추정된 교육용 로봇의 자세에 따라 상기 적어도 하나의 가상 객체를 상기 영상 데이터 상에 적응적으로 증강시켜 디스플레이하는 것을 특징으로 하는 증강 현실 구현 방법
|
13 |
13
제11항에 있어서,상기 블루투스 통신부가 상기 교육용 로봇과 상기 가상 객체 간에 충돌 이벤트가 발생될 경우, 상기 충돌 이벤트를 처리하기 위한 제어 신호를 생성하여 상기 교육용 로봇에 전송하는 단계;를 더 포함하는 것을 특징으로 하는 증강 현실 구현 방법
|
14 |
14
제13항에 있어서,상기 교육용 로봇에 대한 제어 신호를 생성하여 상기 교육용 로봇에 전송하는 단계는, 상기 제어부가 상기 영상 데이터 상에 상기 가상 객체를 증강한 후, 상기 영상 데이터 상에서 상기 교육용 로봇과 상기 가상 객체와의 이격 거리를 산출하는 단계; 상기 제어부가 상기 이격 거리가 기 설정된 기준값 이하인 경우, 상기 교육용 로봇과 상기 가상 객체 간에 충돌 이벤트를 발생시키는 단계; 및 상기 제어부가 X3D(Extensible 3D)를 이용하여 상기 충돌 이벤트를 가시화하는 단계;를 더 포함하는 것을 특징으로 하는 증강 현실 구현 방법
|
15 |
15
삭제
|
16 |
16
삭제
|
17 |
17
제11항에 있어서, 상기 제1 메타데이터는,상기 제2 메타데이터의 저장 위치 정보를 포함하는 콘텐츠 서버 정보 및 콘텐츠 관련 정보를 포함하는 콘텐츠 메타데이터이고, 상기 제2 메타데이터는,증강 현실을 구현하기 위한 상세 메타데이터로, 콘텐츠, 상기 콘텐츠를 실행하는데 이용되는 미디어파일들의 저장 위치 정보, 상기 교육용 로봇 확장 모듈, 상기 교육용 로봇의 3차원 기하 정보, 가상 환경에서 상기 교육용 로봇과의 상호 작용 정보, 교육 시나리오 정보 및 상기 증강을 위한 명세 기술 정보 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 증강 현실 구현 방법
|