1 |
1
a) 미리 설정된 인간 감정 지표에 따라 인간 얼굴 근육의 EES(Epidermal Electric Sensor) 신호를 측정하여, 상기 인간 감정 지표에 대응되는 복수개의 사람얼굴모터유닛을 도출하는 단계;b) 사람의 얼굴 근육에 대응되도록 설치된 서보모터를 바탕으로, 상기 사람얼굴모터유닛과 대응되도록 복수개의 로봇얼굴모터유닛을 도출하는 단계;c) 상기 인간 감정 지표를 표현하도록 상기 복수개의 로봇얼굴모터유닛과 기본계수를 조합하여, 복수개의 상기 로봇얼굴모터유닛과 일대일 대응되어 곱해지는 복수개의 기본계수들의 합으로 이루어진 로봇 얼굴 제어신호를 도출하는 단계;d) 상기 로봇 얼굴 제어신호에 따라 로봇의 얼굴 표정을 표현하고 로봇 감정 지표를 도출하는 단계;e) 상기 인간 감정 지표와 상기 로봇 감정 지표의 차이인 차이 감정 지표를 도출하는 단계;f) 상기 차이 감정 지표로부터 상기 로봇얼굴모터유닛의 보정계수를 연산하는 단계;g) 상기 기본계수와 상기 보정계수를 합산하여 새로운 기본계수를 도출하는 단계;h) 상기 복수개의 로봇얼굴모터유닛과 상기 새로운 기본계수를 조합하여 새로운 로봇 얼굴 제어신호를 도출하는 단계를 포함하며,상기 (e) 단계에서, 상기 차이 감정 지표가 미리 설정된 공차를 만족할 때까지 상기 (d) 내지 (h) 단계를 반복 수행하도록 이루어지며,상기 a) 단계에서, 상기 사람얼굴모터유닛은 인간 얼굴 근육의 복수의 지점에서의 EES신호의 벡터값의 시계열 데이터에 음수 미포함 행렬 분해(Non-negative matrix factorization, NMF) 알고리즘을 적용하여 각 지점에서의 EES 신호를 그룹핑한 형태로 도출되고,복수의 사람얼굴모터유닛(M1)에 각각 계수를 곱하여 합한 값은 각각의 얼굴 근육 지점에서 측정된 EES 신호 값과 일치하도록 마련되고,상기 c) 단계에서, 상기 서보모터를 그룹핑하여 형성된 상기 로봇얼굴모터유닛과 인간 감정 지표의 개수를 동일하게 하여 차원을 일치시킨 것을 특징으로 하는 로봇의 인간 얼굴 표정 학습 및 표정 구현 방법
|
2 |
2
삭제
|
3 |
3
제 1 항에 있어서,상기 a) 단계에서,상기 인간 감정 지표는 감정이 표현된 인간 얼굴 표정으로부터 측정되는 EES 신호의 벡터값의 합인 것을 특징으로 하는 로봇의 인간 얼굴 표정 학습 및 표정 구현 방법
|
4 |
4
제 1 항에 있어서,상기 b) 단계에서,상기 로봇얼굴모터유닛은 복수개의 상기 서보모터들의 조합으로 이루어진 것을 특징으로 하는 로봇의 인간 얼굴 표정 학습 및 표정 구현 방법
|
5 |
5
삭제
|
6 |
6
제 1 항에 있어서,상기 d) 단계에서,상기 로봇 감정 지표는 감정이 표현된 로봇 얼굴 표정으로부터 측정되는 서보모터의 벡터값의 합인 것을 특징으로 하는 로봇의 인간 얼굴 표정 학습 및 표정 구현 방법
|
7 |
7
제 1 항에 따른 로봇의 인간 얼굴 표정 학습 및 표정 구현 방법을 적용한 로봇
|