1 |
1
디지털 에이전트 이동 매니퓰레이터에 있어서, 영상 정보를 취득하는 촬영부와, 상기 촬영부의 회전 각도를 제어하는 각도 제어부가 구성되는 머리부; 및 상기 머리부의 하부에 배치되며, 작업을 위한 복수의 관절이 형성된 매니퓰레이터가 구성되는 몸통부를 포함하고, 상기 머리부는, 로봇 얼굴을 표시하고, 대화 시 기설명된 정보를 바탕으로 표정을 나타내는 디스플레이 모듈을 포함하며, 상기 머리부의 상기 각도 제어부는 상기 몸통부와 독립적으로 상기 촬영부를 회전시키고, 상기 디스플레이 모듈은, 특정 사람 또는 고유의 외형 또는 성격을 디지털(Digital) DNA(Deoxyribonucleic Acid)를 기반으로 생성하여 구현하고, 대화 시 주변 환경에 대한 상황 정보(context)를 추론하여 표정에 반영하여 사용자와 상호작용 하며, 사용자 단말과 연결되어 실시간으로 사용자의 상황 정보를 추론한 결과를 전달 받아 AE 로봇의 성격, 외형 및 음성과 관련되어 인코딩된 상기 디지털 DNA를 따르는 표정을 디스플레이 하거나 음성을 출력하고, 상기 사용자 단말은, 상기 사용자의 단말로부터 수집된 센서 데이터로부터 선별된 특징을 추출하고 QEA-NN(Quantum-inspired Evolutionary Algorithm-based Neural Network)을 이용하여 실시간으로 상기 사용자의 상황 정보를 추론하는 것을 특징으로 하는, 디지털 에이전트 이동 매니퓰레이터
|
2 |
2
제1항에 있어서,상기 몸통부의 하부에 배치되며, 이동을 위한 적어도 하나 이상의 휠이 구성되는 다리부를 더 포함하는, 디지털 에이전트 이동 매니퓰레이터
|
3 |
3
제1항에 있어서,상기 머리부의 상기 촬영부는, 주변의 영상을 획득하여 통신 모듈을 통해 사용자에게 전송하는 카메라인 것을 특징으로 하는, 디지털 에이전트 이동 매니퓰레이터
|
4 |
4
삭제
|
5 |
5
삭제
|
6 |
6
제1항에 있어서,상기 디스플레이 모듈은, 로봇 얼굴을 통해 대화 시 표정 및 입 모양을 표시하는 디스플레이부; 외부의 음성을 인식하는 마이크; 음성을 출력하는 스피커; 및 상기 마이크를 통해 인식한 음성을 분석하고, 상기 인식한 음성 또는 상기 촬영부를 통해 획득한 영상을 통해 상황 정보를 획득하여 상기 스피커를 통해 출력할 음성과 상기 디스플레이부를 통해 표시할 로봇 얼굴, 표정 및 입 모양을 결정하는 제어부를 포함하는, 디지털 에이전트 이동 매니퓰레이터
|
7 |
7
제1항에 있어서, 상기 디스플레이 모듈은, 태블릿(tablet) PC로 이루어지며, 상기 디지털 에이전트 이동 매니퓰레이터는, 휠 베이스 상부에 상기 매니퓰레이터가 구성된 몸통부가 형성되고, 상기 태블릿 PC를 부착됨에 따라 좁은 공간을 차지하도록 구현되어 실내 환경 또는 좁은 환경에서 효율적인 이동과 작업이 가능한 것을 특징으로 하는, 디지털 에이전트 이동 매니퓰레이터
|
8 |
8
제1항에 있어서, 상기 머리부의 상기 각도 제어부는, 팬 및 틸트 기능의 모터를 이용해 회전 각도를 제어하는 것을 특징으로 하는, 디지털 에이전트 이동 매니퓰레이터
|
9 |
9
제1항에 있어서,상기 몸통부는, 상기 매니퓰레이터를 작업 위치로 움직이기 위한 제어를 수행하는 제1 회전 작업 모터; 및 상기 제1 회전 작업 모터와 소정 간격 이격되어 배치되며, 상기 제1 회전 작업 모터와 연동하여 서로 반대로 동작하는 제2 회전 작업 모터를 포함하고, 상기 제1 회전 작업 모터 및 상기 제2 회전 작업 모터는 하나의 쌍으로 이루어져 상기 매니퓰레이터의 회전 작업과 상기 머리부의 회전이 독립적으로 이루어지도록 하는 것을 특징으로 하는, 디지털 에이전트 이동 매니퓰레이터
|
10 |
10
제1항에 있어서,상기 몸통부는, 상기 매니퓰레이터의 말단에 작업을 위한 엔드 이펙터(end effector)가 부착되는 것 을 특징으로 하는, 디지털 에이전트 이동 매니퓰레이터
|
11 |
11
제2항에 있어서,상기 다리부는, 사용자의 원격 조종에 따라 상기 휠을 통한 이동 방향 및 속도를 조절하고, 상기 각도 제어부의 회전 각도와 상기 매니퓰레이터의 동작을 제어하는 동작 제어부를 더 포함하는, 디지털 에이전트 이동 매니퓰레이터
|
12 |
12
삭제
|
13 |
13
제1항에 있어서,상기 사용자 단말은, 어플리케이션의 실행을 통해 상기 디스플레이 모듈과 연결되며, 학습된 신경망을 사용하여 위치, 사용자 행동, 스마트 폰 상태 정보 및 시간 정보와 관련된 상기 사용자의 상황 정보를 실시간으로 추론하고, 사용자가 특정 디지털 DNA를 선택함에 따라 상기 디지털 DNA로 인코딩된 성격, 외형 및 음성에 대한 정보를 상기 디스플레이 모듈로 전송하는 것을 특징으로 하는, 디지털 에이전트 이동 매니퓰레이터
|
14 |
14
제13항에 있어서,상기 디스플레이 모듈은, 선택된 상기 디지털 DNA를 상기 사용자 단말로부터 전송 받아 성격, 외형 및 음성을 표현하며, 성격 DNA를 기반으로 빅 5 성격 모델에 따라 경험에 대한 개방성(openness), 성실성(conscientiousness), 외향성(extraversion), 친화성(agreeableness) 및 신경성(neuroticism)의 5 가지 특성으로 나타내어 성격을 결정하고, 외형 DNA를 기반으로 주성분 분석(Principal Component Analysis, PCA)을 통한 차원 감소 방법을 사용하여 3차원 모델 얼굴을 생성하며, 음성 DNA를 기반으로 상기 사용자 단말로부터 생성된 응답을 음성 여기 신호와 보컬 트랙 스펙트럼 모델을 이용하여 고유한 음성 또는 특정 개인과 유사한 음성으로 출력하는 것 을 특징으로 하는, 디지털 에이전트 이동 매니퓰레이터
|
15 |
15
디지털 에이전트 이동 매니퓰레이터에 있어서, 매니퓰레이터; 및 상기 매니퓰레이터에 설치되고, 사용자 단말과 연결되어 실시간으로 주변 환경에 대한 사용자의 상황 정보를 추론한 결과를 전달 받아, AE 로봇의 성격, 외형 및 음성과 관련되어 인코딩된 디지털(Digital) DNA(Deoxyribonucleic Acid)를 따르는 표정을 디스플레이 하거나 음성을 출력하는 디스플레이 모듈을 포함하는, 디지털 에이전트 이동 매니퓰레이터
|
16 |
16
제15항에 있어서,상기 사용자 단말은, 어플리케이션의 실행을 통해 상기 디스플레이 모듈과 연결되며, 상기 사용자의 단말로부터 수집된 센서 데이터로부터 선별된 특징을 추출하고 QEA-NN(Quantum-inspired Evolutionary Algorithm-based Neural Network)을 이용하여 실시간으로 상기 사용자의 상황 정보를 추론하고, 사용자가 특정 디지털 DNA를 선택함에 따라 상기 디지털 DNA로 인코딩된 성격, 외형 및 음성에 대한 정보를 상기 디스플레이 모듈로 전송하는 것을 특징으로 하는, 디지털 에이전트 이동 매니퓰레이터
|
17 |
17
제16항에 있어서,상기 디스플레이 모듈은, 선택된 상기 디지털 DNA를 상기 사용자 단말로부터 전송 받아 성격, 외형 및 음성을 표현하며, 성격 DNA를 기반으로 빅 5 성격 모델에 따라 경험에 대한 개방성(openness), 성실성(conscientiousness), 외향성(extraversion), 친화성(agreeableness) 및 신경성(neuroticism)의 5 가지 특성으로 나타내어 성격을 결정하고, 외형 DNA를 기반으로 주성분 분석(Principal Component Analysis, PCA)을 통한 차원 감소 방법을 사용하여 3차원 모델 얼굴을 생성하며, 음성 DNA를 기반으로 상기 사용자 단말로부터 생성된 응답을 음성 여기 신호와 보컬 트랙 스펙트럼 모델을 이용하여 고유한 음성 또는 특정 개인과 유사한 음성으로 출력하는 것 을 특징으로 하는, 디지털 에이전트 이동 매니퓰레이터
|