1 |
1
사용자 음성 및 사용자 영상 중 적어도 어느 하나를 인식하는 사용자 인식부;상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나를 분석하여 사용자 감정 정보를 생성하는 감정 정보 생성부;상기 생성된 사용자 감정 정보에 기초하여 진동촉각 정보를 생성하는 진동촉각 정보 생성부; 및상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나와 상기 생성된 진동촉각 정보에 기초하여 사용자 감성 데이터를 생성하고, 통화 연결된 상대방 기기로 상기 생성된 사용자 감성 데이터를 전송하는 데이터 처리부를 포함하고,상기 감정 정보 생성부는,사용자 감정을 판단하기 위한 기준값에 해당하는 버퍼 용량만큼, 사용자 음성이 기록되었는지 판단하고, 상기 판단 결과, 상기 버퍼 용량만큼 사용자 음성이 버퍼에 기록된 경우에만 상기 인식된 사용자 음성을 분석하고, 상기 인식된 사용자 영상에서 확인되는 사용자의 눈의 모양 및 입의 모양을 비교 대상 프레임과 비교하여 표정 변화를 인식함으로써 상기 인식된 사용자 영상을 분석하되, 상기 인식된 사용자 영상으로부터 분할된 프레임을 이용해서 사용자 감정 정보를 생성하고, 상기 분할된 프레임 이후의 또 다른 프레임을 이용해서 상기 생성된 사용자 감정 정보를 업데이트하고,상기 진동촉각 정보 생성부는 상기 생성된 사용자 감정 정보와 상기 업데이트되는 사용자 감정 정보를 이용해서 상기 진동촉각 정보를 생성하는진동촉각기반의 감성 전달 장치
|
2 |
2
제1항에 있어서,상기 사용자 인식부는, 상기 인식된 사용자 음성을 특정 버퍼 용량만큼 기록하고,상기 감정 정보 생성부는, 상기 기록된 사용자 음성을 분석하여 제1 사용자 감정 정보를 생성하는진동촉각기반의 감성 전달 장치
|
3 |
3
제2항에 있어서,상기 사용자 인식부는, 상기 인식된 사용자 영상을 프레임 단위로 분할하고, 상기 분할된 사용자 영상 각각에서 사용자 얼굴을 인식하는진동촉각기반의 감성 전달 장치
|
4 |
4
제3항에 있어서,상기 사용자 인식부는, 상기 분할된 사용자 영상에서 제1 프레임의 사용자 영상과 제2 프레임의 사용자 영상을 결정하고, 상기 결정된 제1 프레임의 사용자 영상과 상기 결정된 제2 프레임의 사용자 영상을 비교하여 상기 인식된 사용자 얼굴의 표정 변화를 인식하는진동촉각기반의 감성 전달 장치
|
5 |
5
제4항에 있어서,상기 감정 정보 생성부는, 상기 결정된 제1 프레임의 사용자 영상을 분석하여 제2 사용자 감정 정보를 생성하는진동촉각기반의 감성 전달 장치
|
6 |
6
제5항에 있어서,상기 감정 정보 생성부는, 상기 분할된 사용자 영상에서 상기 제2 프레임의 사용자 영상의 존재 여부를 판단하고, 상기 제2 프레임의 사용자 영상이 존재할 경우, 상기 인식된 표정 변화를 분석하여 상기 생성된 제2 사용자 감정 정보를 업데이트하는진동촉각기반의 감성 전달 장치
|
7 |
7
제6항에 있어서,상기 감정 정보 생성부는, 상기 생성된 제1 사용자 감정 정보 및 상기 업데이트된 제2 사용자 감정 정보를 포함하는 상기 사용자 감정 정보를 생성하는진동촉각기반의 감성 전달 장치
|
8 |
8
제7항에 있어서,상기 진동촉각 정보 생성부는, 상기 생성된 제1 사용자 감정 정보에 기초하여 제1 진동촉각 정보를 생성하고,상기 데이터 처리부는, 상기 인식된 사용자 음성 및 상기 생성된 제1 진동촉각 정보에 기초하여 제1 사용자 감성 데이터를 생성하고, 상기 상대방 기기로 상기 생성된 제1 사용자 감성 데이터를 전송하는 진동촉각기반의 감성 전달 장치
|
9 |
9
제7항에 있어서,상기 진동촉각 정보 생성부는, 상기 업데이트된 제2 사용자 감정 정보에 기초하여 제2 진동촉각 정보를 생성하고,상기 데이터 처리부는, 상기 인식된 사용자 영상 및 상기 생성된 제2 진동촉각 정보에 기초하여 제2 사용자 감성 데이터를 생성하고, 상기 상대방 기기로 상기 생성된 제2 사용자 감성 데이터를 전송하는 진동촉각기반의 감성 전달 장치
|
10 |
10
제7항에 있어서,상기 진동촉각 정보 생성부는, 상기 생성된 제1 사용자 감정 정보 및 상기 업데이트된 제2 사용자 감정 정보에 기초하여 제3 진동촉각 정보를 생성하고,상기 데이터 처리부는, 상기 인식된 사용자 음성, 상기 인식된 사용자 영상 및 상기 생성된 제3 진동촉각 정보에 기초하여 제3 사용자 감성 데이터를 생성하고, 상기 상대방 기기로 상기 생성된 제3 사용자 감성 데이터를 전송하는 진동촉각기반의 감성 전달 장치
|
11 |
11
사용자 인식부에서, 사용자 음성 및 사용자 영상 중 적어도 어느 하나를 인식하는 단계;감정 정보 생성부에서, 사용자 감정을 판단하기 위한 기준값에 해당하는 버퍼 용량만큼, 사용자 음성이 기록되었는지 판단하는 단계;상기 판단 결과, 상기 버퍼 용량만큼 사용자 음성이 버퍼에 기록된 경우에만 상기 인식된 사용자 음성을 분석하고, 상기 인식된 사용자 영상에서 확인되는 사용자의 눈의 모양 및 입의 모양을 비교 대상 프레임과 비교하여 표정 변화를 인식함으로써 상기 인식된 사용자 영상을 분석하여 사용자 감정 정보를 생성하되, 상기 인식된 사용자 영상으로부터 분할된 프레임으로부터 사용자 감정 정보를 생성하고, 상기 분할된 프레임 이후의 또 다른 프레임을 이용해서 상기 생성된 사용자 감정 정보를 업데이트하는 단계;진동촉각 정보 생성부에서, 상기 생성된 사용자 감정 정보와 상기 업데이트되는 사용자 감정 정보를 이용해서 상기 진동촉각 정보를 생성하는 단계; 및데이터 처리부에서, 상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나와 상기 생성된 진동촉각 정보에 기초하여 사용자 감성 데이터를 생성하고, 상대방 기기로 상기 생성된 사용자 감성 데이터를 전송하는 단계를 포함하는진동촉각기반의 감성 전달 방법
|
12 |
12
제11항에서,상기 사용자 음성 및 사용자 영상 중 적어도 어느 하나를 인식하는 단계는,상기 사용자 인식부에서, 상기 인식된 사용자 음성을 특정 버퍼 용량만큼 기록하는 단계;상기 사용자 인식부에서, 상기 인식된 사용자 영상을 프레임 단위로 분할하고, 상기 분할된 사용자 영상 각각에서 사용자 얼굴을 인식하는 단계;상기 사용자 인식부에서, 상기 분할된 사용자 영상에서 제1 프레임의 사용자 영상과 제2 프레임의 사용자 영상을 결정하는 단계; 및상기 사용자 인식부에서, 상기 결정된 제1 프레임의 사용자 영상과 상기 결정된 제2 프레임의 사용자 영상을 비교하여 상기 인식된 사용자 얼굴의 표정 변화를 인식하는 단계를 포함하는진동촉각기반의 감성 전달 방법
|
13 |
13
제12항에서,상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나를 분석하여 사용자 감정 정보를 생성하는 단계는,상기 감정 정보 생성부에서, 상기 기록된 사용자 음성을 분석하여 제1 사용자 감정 정보를 생성하는 단계;상기 감정 정보 생성부에서, 상기 결정된 제1 프레임의 사용자 영상을 분석하여 제2 사용자 감정 정보를 생성하는 단계;상기 감정 정보 생성부에서, 상기 분할된 사용자 영상에서 상기 제2 프레임의 사용자 영상의 존재 여부를 판단하는 단계;상기 제2 프레임의 사용자 영상이 존재할 경우, 상기 인식된 표정 변화를 분석하여 상기 생성된 제2 사용자 감정 정보를 업데이트하는 단계; 및상기 생성된 제1 사용자 감정 정보 및 상기 업데이트된 제2 사용자 감정 정보를 포함하는 상기 사용자 감정 정보를 생성하는 단계를 포함하는진동촉각기반의 감성 전달 방법
|