맞춤기술찾기

이전대상기술

진동촉각기반의 감성 전달 장치 및 방법

  • 기술번호 : KST2018008338
  • 담당센터 : 서울동부기술혁신센터
  • 전화번호 : 02-2155-3662
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 본 발명은 진동촉각기반의 감성 전달 장치 및 방법을 개시한다. 본 발명의 일실시예에 따르면 감성 전달 장치는 사용자 음성 및 사용자 영상 중 적어도 어느 하나를 인식하는 사용자 인식부, 상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나를 분석하여 사용자 감정 정보를 생성하는 감정 정보 생성부, 상기 생성된 사용자 감정 정보에 기초하여 진동촉각 정보를 생성하는 진동촉각 정보 생성부 및 상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나와 상기 생성된 진동촉각 정보에 기초하여 사용자 감성 데이터를 생성하고, 통화 연결된 상대방 기기로 상기 생성된 사용자 감성 데이터를 전송하는 데이터 처리부를 포함할 수 있다.
Int. CL H04N 7/14 (2006.01.01) G06F 3/01 (2006.01.01) H04M 1/725 (2006.01.01)
CPC
출원번호/일자 1020170163942 (2017.12.01)
출원인 경희대학교 산학협력단
등록번호/일자
공개번호/일자 10-2018-0070467 (2018.06.26) 문서열기
공고번호/일자 문서열기
국제출원번호/일자
국제공개번호/일자
우선권정보 대한민국  |   1020160172412   |   2016.12.16
법적상태 등록
심사진행상태 수리
심판사항
구분 신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2017.12.01)
심사청구항수 13

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 경희대학교 산학협력단 대한민국 경기도 용인시 기흥구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 전석희 경기도 용인시 기흥구
2 정윤아 충청남도 공주시

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 김연권 대한민국 서울특별시 송파구 법원로 ***, ****/****호(문정동, 문정대명벨리온)(시안특허법률사무소)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
1 경희대학교 산학협력단 경기도 용인시 기흥구
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2017.12.01 수리 (Accepted) 1-1-2017-1201222-57
2 선행기술조사의뢰서
Request for Prior Art Search
2019.01.21 수리 (Accepted) 9-1-9999-9999999-89
3 선행기술조사보고서
Report of Prior Art Search
2019.03.14 발송처리완료 (Completion of Transmission) 9-6-2019-0034338-31
4 의견제출통지서
Notification of reason for refusal
2019.04.15 발송처리완료 (Completion of Transmission) 9-5-2019-0268893-57
5 [명세서등 보정]보정서
[Amendment to Description, etc.] Amendment
2019.06.14 보정승인간주 (Regarded as an acceptance of amendment) 1-1-2019-0608409-12
6 [거절이유 등 통지에 따른 의견]의견(답변, 소명)서
[Opinion according to the Notification of Reasons for Refusal] Written Opinion(Written Reply, Written Substantiation)
2019.06.14 수리 (Accepted) 1-1-2019-0608405-30
7 출원인정보변경(경정)신고서
Notification of change of applicant's information
2019.08.19 수리 (Accepted) 4-1-2019-5164254-26
8 거절결정서
Decision to Refuse a Patent
2019.10.02 발송처리완료 (Completion of Transmission) 9-5-2019-0716731-12
9 [명세서등 보정]보정서(재심사)
Amendment to Description, etc(Reexamination)
2019.11.04 보정승인 (Acceptance of amendment) 1-1-2019-1130464-14
10 [거절이유 등 통지에 따른 의견]의견(답변, 소명)서
[Opinion according to the Notification of Reasons for Refusal] Written Opinion(Written Reply, Written Substantiation)
2019.11.04 수리 (Accepted) 1-1-2019-1130461-88
11 등록결정서
Decision to Grant Registration
2019.11.14 발송처리완료 (Completion of Transmission) 9-5-2019-0822980-72
12 [명세서등 보정]보정서(심사관 직권보정)
2019.12.05 보정승인간주 (Regarded as an acceptance of amendment) 1-1-2019-5038966-01
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
사용자 음성 및 사용자 영상 중 적어도 어느 하나를 인식하는 사용자 인식부;상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나를 분석하여 사용자 감정 정보를 생성하는 감정 정보 생성부;상기 생성된 사용자 감정 정보에 기초하여 진동촉각 정보를 생성하는 진동촉각 정보 생성부; 및상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나와 상기 생성된 진동촉각 정보에 기초하여 사용자 감성 데이터를 생성하고, 통화 연결된 상대방 기기로 상기 생성된 사용자 감성 데이터를 전송하는 데이터 처리부를 포함하고,상기 감정 정보 생성부는,사용자 감정을 판단하기 위한 기준값에 해당하는 버퍼 용량만큼, 사용자 음성이 기록되었는지 판단하고, 상기 판단 결과, 상기 버퍼 용량만큼 사용자 음성이 버퍼에 기록된 경우에만 상기 인식된 사용자 음성을 분석하고, 상기 인식된 사용자 영상에서 확인되는 사용자의 눈의 모양 및 입의 모양을 비교 대상 프레임과 비교하여 표정 변화를 인식함으로써 상기 인식된 사용자 영상을 분석하되, 상기 인식된 사용자 영상으로부터 분할된 프레임을 이용해서 사용자 감정 정보를 생성하고, 상기 분할된 프레임 이후의 또 다른 프레임을 이용해서 상기 생성된 사용자 감정 정보를 업데이트하고,상기 진동촉각 정보 생성부는 상기 생성된 사용자 감정 정보와 상기 업데이트되는 사용자 감정 정보를 이용해서 상기 진동촉각 정보를 생성하는진동촉각기반의 감성 전달 장치
2 2
제1항에 있어서,상기 사용자 인식부는, 상기 인식된 사용자 음성을 특정 버퍼 용량만큼 기록하고,상기 감정 정보 생성부는, 상기 기록된 사용자 음성을 분석하여 제1 사용자 감정 정보를 생성하는진동촉각기반의 감성 전달 장치
3 3
제2항에 있어서,상기 사용자 인식부는, 상기 인식된 사용자 영상을 프레임 단위로 분할하고, 상기 분할된 사용자 영상 각각에서 사용자 얼굴을 인식하는진동촉각기반의 감성 전달 장치
4 4
제3항에 있어서,상기 사용자 인식부는, 상기 분할된 사용자 영상에서 제1 프레임의 사용자 영상과 제2 프레임의 사용자 영상을 결정하고, 상기 결정된 제1 프레임의 사용자 영상과 상기 결정된 제2 프레임의 사용자 영상을 비교하여 상기 인식된 사용자 얼굴의 표정 변화를 인식하는진동촉각기반의 감성 전달 장치
5 5
제4항에 있어서,상기 감정 정보 생성부는, 상기 결정된 제1 프레임의 사용자 영상을 분석하여 제2 사용자 감정 정보를 생성하는진동촉각기반의 감성 전달 장치
6 6
제5항에 있어서,상기 감정 정보 생성부는, 상기 분할된 사용자 영상에서 상기 제2 프레임의 사용자 영상의 존재 여부를 판단하고, 상기 제2 프레임의 사용자 영상이 존재할 경우, 상기 인식된 표정 변화를 분석하여 상기 생성된 제2 사용자 감정 정보를 업데이트하는진동촉각기반의 감성 전달 장치
7 7
제6항에 있어서,상기 감정 정보 생성부는, 상기 생성된 제1 사용자 감정 정보 및 상기 업데이트된 제2 사용자 감정 정보를 포함하는 상기 사용자 감정 정보를 생성하는진동촉각기반의 감성 전달 장치
8 8
제7항에 있어서,상기 진동촉각 정보 생성부는, 상기 생성된 제1 사용자 감정 정보에 기초하여 제1 진동촉각 정보를 생성하고,상기 데이터 처리부는, 상기 인식된 사용자 음성 및 상기 생성된 제1 진동촉각 정보에 기초하여 제1 사용자 감성 데이터를 생성하고, 상기 상대방 기기로 상기 생성된 제1 사용자 감성 데이터를 전송하는 진동촉각기반의 감성 전달 장치
9 9
제7항에 있어서,상기 진동촉각 정보 생성부는, 상기 업데이트된 제2 사용자 감정 정보에 기초하여 제2 진동촉각 정보를 생성하고,상기 데이터 처리부는, 상기 인식된 사용자 영상 및 상기 생성된 제2 진동촉각 정보에 기초하여 제2 사용자 감성 데이터를 생성하고, 상기 상대방 기기로 상기 생성된 제2 사용자 감성 데이터를 전송하는 진동촉각기반의 감성 전달 장치
10 10
제7항에 있어서,상기 진동촉각 정보 생성부는, 상기 생성된 제1 사용자 감정 정보 및 상기 업데이트된 제2 사용자 감정 정보에 기초하여 제3 진동촉각 정보를 생성하고,상기 데이터 처리부는, 상기 인식된 사용자 음성, 상기 인식된 사용자 영상 및 상기 생성된 제3 진동촉각 정보에 기초하여 제3 사용자 감성 데이터를 생성하고, 상기 상대방 기기로 상기 생성된 제3 사용자 감성 데이터를 전송하는 진동촉각기반의 감성 전달 장치
11 11
사용자 인식부에서, 사용자 음성 및 사용자 영상 중 적어도 어느 하나를 인식하는 단계;감정 정보 생성부에서, 사용자 감정을 판단하기 위한 기준값에 해당하는 버퍼 용량만큼, 사용자 음성이 기록되었는지 판단하는 단계;상기 판단 결과, 상기 버퍼 용량만큼 사용자 음성이 버퍼에 기록된 경우에만 상기 인식된 사용자 음성을 분석하고, 상기 인식된 사용자 영상에서 확인되는 사용자의 눈의 모양 및 입의 모양을 비교 대상 프레임과 비교하여 표정 변화를 인식함으로써 상기 인식된 사용자 영상을 분석하여 사용자 감정 정보를 생성하되, 상기 인식된 사용자 영상으로부터 분할된 프레임으로부터 사용자 감정 정보를 생성하고, 상기 분할된 프레임 이후의 또 다른 프레임을 이용해서 상기 생성된 사용자 감정 정보를 업데이트하는 단계;진동촉각 정보 생성부에서, 상기 생성된 사용자 감정 정보와 상기 업데이트되는 사용자 감정 정보를 이용해서 상기 진동촉각 정보를 생성하는 단계; 및데이터 처리부에서, 상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나와 상기 생성된 진동촉각 정보에 기초하여 사용자 감성 데이터를 생성하고, 상대방 기기로 상기 생성된 사용자 감성 데이터를 전송하는 단계를 포함하는진동촉각기반의 감성 전달 방법
12 12
제11항에서,상기 사용자 음성 및 사용자 영상 중 적어도 어느 하나를 인식하는 단계는,상기 사용자 인식부에서, 상기 인식된 사용자 음성을 특정 버퍼 용량만큼 기록하는 단계;상기 사용자 인식부에서, 상기 인식된 사용자 영상을 프레임 단위로 분할하고, 상기 분할된 사용자 영상 각각에서 사용자 얼굴을 인식하는 단계;상기 사용자 인식부에서, 상기 분할된 사용자 영상에서 제1 프레임의 사용자 영상과 제2 프레임의 사용자 영상을 결정하는 단계; 및상기 사용자 인식부에서, 상기 결정된 제1 프레임의 사용자 영상과 상기 결정된 제2 프레임의 사용자 영상을 비교하여 상기 인식된 사용자 얼굴의 표정 변화를 인식하는 단계를 포함하는진동촉각기반의 감성 전달 방법
13 13
제12항에서,상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나를 분석하여 사용자 감정 정보를 생성하는 단계는,상기 감정 정보 생성부에서, 상기 기록된 사용자 음성을 분석하여 제1 사용자 감정 정보를 생성하는 단계;상기 감정 정보 생성부에서, 상기 결정된 제1 프레임의 사용자 영상을 분석하여 제2 사용자 감정 정보를 생성하는 단계;상기 감정 정보 생성부에서, 상기 분할된 사용자 영상에서 상기 제2 프레임의 사용자 영상의 존재 여부를 판단하는 단계;상기 제2 프레임의 사용자 영상이 존재할 경우, 상기 인식된 표정 변화를 분석하여 상기 생성된 제2 사용자 감정 정보를 업데이트하는 단계; 및상기 생성된 제1 사용자 감정 정보 및 상기 업데이트된 제2 사용자 감정 정보를 포함하는 상기 사용자 감정 정보를 생성하는 단계를 포함하는진동촉각기반의 감성 전달 방법
지정국 정보가 없습니다
패밀리정보가 없습니다
순번, 연구부처, 주관기관, 연구사업, 연구과제의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 국가R&D 연구정보 정보 표입니다.
순번 연구부처 주관기관 연구사업 연구과제
1 정보통신산업진흥원 경희대학교 산학협력단 대학 ICT 연구센터 육성지원사업 실시간 모바일 클라우드 서비스 플렛폼 연구개발