1 |
1
사용자의 눈 깜박임에 응답하여 녹화를 동작을 수행하여 영상 데이터를 생성하고, 위치 정보, 및 사용자의 움직임에 관한 정보, 사용자 자세에 관한 정보를 포함하는 센서 정보를 수집하도록 구성된 스마트 안경; 및네트워크를 통해 상기 스마트 안경과 연결되고, 상기 스마트 안경으로부터 제공된 상기 영상 데이터 및 상기 센서 정보를 수신하고, 상기 영상 데이터 및 상기 센서 정보를 분석하여, 상기 영상 데이터에 대한 태그 정보를 생성하도록 구성된 관리 서버를 포함하는 스마트 안경 시스템
|
2 |
2
제 1 항에 있어서,상기 관리 서버는 신경망 기술을 통해 상기 영상 데이터 및 상기 센서 정보를 분석하여 메타 데이터를 생성하고, 상기 메타 데이터 및 상기 영상 데이터를 데이터베이스화 하여 저장 및 관리하도록 구성되고,상기 메타 데이터는 시간 정보, 장소 정보, 및 상황 정보를 포함하고, 상기 상황 정보는 인물에 관한 정보, 사물에 관한 정보, 인물의 행동에 관한 정보, 및 이벤트에 관한 정보를 포함하는 스마트 안경 시스템
|
3 |
3
제 2 항에 있어서,상기 관리 서버는 상기 메타 데이터를 기반으로 상기 영상 데이터를 요약하는 태그 정보를 생성하고, 상기 태그 정보에 포함된 단어들을 데이터베이스의 기본 키(primary key)로 사용하도록 구성된 스마트 안경 시스템
|
4 |
4
제 3 항에 있어서,상기 관리 서버는 상기 기본 키를 사용하여, 이벤트 별로, 인물 별로, 시간 별로, 또는 장소 별로 영상 데이터를 검색, 색인, 선택, 및 재정렬하여 재분류가 가능하도록 저장 관리 하는 스마트 안경 시스템
|
5 |
5
제 1 항에 있어서,상기 스마트 안경은:장면을 녹화하여 상기 영상 데이터를 생성하는 카메라;위치 정보를 생성하는 GPS(Global Positioning System) 장치; 및속도, 방향, 중력, 및 가속도를 측정하여, 사용자의 움직임에 관한 정보, 사용자 자세에 관한 정보를 생성하도록 구성된 관성 측정 장치를 포함하는 스마트 안경 시스템
|
6 |
6
제 4 항에 있어서,상기 스마트 안경은:상기 네트워크와 무선 통신을 수행하도록 구성된 통신 모듈;중앙 처리 장리로의 기능을 수행하도록 구성된 프로세서; 상기 프로세서에서 처리되는 데이터 및 코드를 저장하고, 상기 영상 데이터 및 상기 센서 정보를 저장하도록 구성된 메모리를 더 포함하는 스마트 안경 시스템
|
7 |
7
제 1 항에 있어서, 상기 관리 서버는:상기 영상 데이터 및 상기 센서 정보를 수신하고, 상기 영상 데이터 및 상기 센서 정보를 분석 하여 메타 데이터를 생성하도록 구성된 분석 모듈;상기 분석 모듈로부터 제공된 상기 메타 데이터를 기반으로 상기 태그 정보를 생성하도록 구성된 태그 생성 모듈;상기 메타 데이터를 데이터베이스화 하여 저장 및 관리하는 메타 데이터 데이터베이스; 및 상기 영상 데이터를 데이터베이스화 하여 저장 및 관리하는 영상 데이터 데이터베이스를 포함하는 스마트 안경 시스템
|
8 |
8
제 1 항 있어서, 상기 스마트 안경은 제1 눈 깜빡임에 응답하여 녹화 동작을 시작하고, 제2 눈 깜빡임에 응답하여 녹화 동작을 종료하도록 구성된 스마트 안경 시스템
|
9 |
9
제 8 항에 있어서,상기 제1 눈 깜빡임은 제1 시간 간격으로 사용자의 한쪽 눈이 두 번 깜빡임을 가리키고, 제2 눈 깜빡임은 상기 제1 시간과 다른 제2 시간 동안 한쪽 눈이 감겨져 있음을 가리키는 스마트 안경 시스템
|
10 |
10
제 2 항에 있어서,상기 메타 데이터는 XML(Extensible Markup Language) 형태로 구현되는 스마트 안경 시스템
|
11 |
11
제 1 항에 있어서,블루투스, LTE(Long Term Evolution), 또는 NFC(Near Field Communication) 중 어느 하나의 무선 프로토콜을 통해 상기 스마트 안경 및 상기 관리 서버와 통신하는 네트워크를 더 포함하는 스마트 안경 시스템
|
12 |
12
스마트 안경 및 관리 서버를 포함하는 스마트 안경 시스템의 동작 방법에 있어서,상기 스마트 안경에 의해, 사용자의 눈 깜빡임에 응답하여 녹화 동작을 수행하여 영상 데이터를 생성하는 단계;상기 스마트 안경에 의해, 상기 녹화 동작을 수행하는 동안, 위치 정보, 사용자의 움직임에 관한 정보, 사용자의 자세에 관한 정보를 포함하는 센서 정보를 수집하는 단계;상기 스마트 안경에 의해, 상기 영상 데이터 및 상기 센서 정보를 네트워크를 통해 상기 관리 서버로 전송하는 단계;상기 관리 서버에 의해, 상기 영상 데이터 및 상기 센서 정보를 기반으로 메타 데이터를 생성하고, 상기 메타 데이터를 기반으로 상기 영상 데이터를 요약하는 태그 정보를 생성하는 단계; 및상기 관리 서버에 의해, 상기 영상 데이터 및 상기 메타 데이터를 데이터베이스화 하여 저장 및 관하는 단계를 포함하는 방법
|
13 |
13
제 12 항에 있어서,상기 녹화 동작을 수행하여 상기 영상 데이터를 생성하는 단계는:상기 스마트 안경에 의해, 제1 눈 깜빡임에 응답하여 녹화 동작을 시작하는 단계;상기 스마트 안경에 의해, 녹화 동작을 수행하는 단계; 및상기 스마트 안경에 의해, 제2 눈 깜빡임에 응답하여 녹화 동작을 종료하는 단계를 포함하고, 상기 제1 눈 깜빡임은 제1 시간 간격으로 사용자의 한쪽 눈이 두 번 깜빡임을 가리키고, 제2 눈 깜빡임은 상기 제1 시간과 다른 제2 시간 동안 한쪽 눈이 감겨져 있음을 가리키는 방법
|
14 |
14
제 12 항에 있어서,상기 태그 정보를 생성하는 단계는:상기 관리 서버에 의해, 상기 스마트 안경으로부터 상기 네트워크를 통해 상기 영상 데이터 및 상기 센서 정보를 수신하는 단계;상기 관리 서버에 의해, 상기 영상 데이터 및 상기 센서 정보를 분석하여, 상기 영상 데이터가 녹화된 시간 정보를 생성하는 단계;상기 관리 서버에 의해, 상기 영상 데이터 및 상기 센서 정보를 분석하여, 상기 영상 데이터가 녹화된 장소 정보를 생성하는 단계;상기 관리 서버에 의해, 상기 영상 데이터 및 상기 센서 정보를 분석하여, 상기 영상 데이터의 인물에 관한 정보, 사물에 관한 정보, 인물의 행동에 관한 정보, 이벤트에 관한 정보를 포함하는 상황 정보를 생성하는 단계; 및상기 시간 정보, 상기 장소 정보, 상기 상황 정보를 포함하는 메타 데이터를 기반으로 상기 영상 데이터에 대한 태그 정보를 생성하는 단계를 포함하는 방법
|