맞춤기술찾기

이전대상기술

비디오 프레임의 공간 정보와 동적 정보를 다층 BI-LSTM을 통해 분석하여 인간 우울증 수준을 예측하는 장치 및 방법

  • 기술번호 : KST2021007587
  • 담당센터 : 서울동부기술혁신센터
  • 전화번호 : 02-2155-3662
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 본 발명의 실시 예에 따른 미세 얼굴 표정을 분석하여 인간의 우울증 수준을 예측하는 장치는 비디오 데이터를 저장하는 데이터 저장부, 비디오 데이터에서 공간 정보를 생성하는 공간 정보 생성부, 비디오 데이터에서 3개의 연속된 프레임을 추출하고, 연속된 프레임을 기준으로 얼굴 역학을 분석하기 위한 VLDN(volume local directional number) 특징 맵을 생성하고, CNN(Deep Convolutional Neural Network) 모델에 입력하여 얼굴 움직임에 대한 동적 정보를 생성하는 VLDN 특징 맵 생성부, 공간 정보와 동적 정보를 TMP(Temporal Median Pooling) 방법을 통하여 출력값으로 생성하는 정보 처리부, 출력값을 재귀신경망을 기반으로 인간의 우울증 수준을 예측하는 예측부를 포함한다.
Int. CL G16H 20/70 (2018.01.01) G16H 50/50 (2018.01.01) G16H 50/20 (2018.01.01) G16H 50/30 (2018.01.01) G06N 3/08 (2006.01.01) G06K 9/00 (2006.01.01)
CPC
출원번호/일자 1020200106833 (2020.08.25)
출원인 경희대학교 산학협력단
등록번호/일자
공개번호/일자 10-2021-0066697 (2021.06.07) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보 대한민국  |   1020190155302   |   2019.11.28
법적상태 공개
심사진행상태 수리
심판사항
구분 국내출원/신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2020.08.25)
심사청구항수 10

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 경희대학교 산학협력단 대한민국 경기도 용인시 기흥구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 이영구 경기도 수원시 영통구
2 우딘 무하마드 아제르 경기도 용인시 기흥구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 특허법인도담 대한민국 경기도 성남시 분당구 판교역로 ***, 에스동 ***호(삼평동,에이치스퀘어)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2020.08.25 수리 (Accepted) 1-1-2020-0891873-68
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
비디오 데이터를 저장하는 데이터 저장부; 상기 비디오 데이터에서 공간 정보를 생성하는 공간 정보 생성부; 상기 비디오 데이터에서 3개의 연속된 프레임을 추출하고, 상기 연속된 프레임을 기준으로 얼굴 역학을 분석하기 위한 VLDN(volume local directional number) 특징 맵을 생성하고, CNN(Deep Convolutional Neural Network) 모델에 입력하여 얼굴 움직임에 대한 동적 정보를 생성하는 VLDN 특징 맵 생성부; 상기 공간 정보와 동적 정보를 TMP(Temporal Median Pooling) 방법을 통하여 출력값으로 생성하는 정보 처리부; 상기 출력값을 재귀신경망을 기반으로 인간의 우울증 수준을 예측하는 수준 예측부; 를 포함하는 미세 얼굴 표정을 분석하여 인간의 우울증 수준을 예측하는 장치
2 2
제 1항에 있어서,상기 VLDN 특징 맵 생성부는 상기 연속된 3개의 프레임의 kirsch 마스크에 기초하여 중심 픽셀의 인접한 인접 픽셀의 에지 응답을 계산하는 에지 응답 계산부; 상기 인접 픽셀 중 최상위 양수 방향 번호와 최상위 음수 방향 번호를 확인하는 방향번호 확인부; 상기 최상위 양수 방향 번호와 상기 최상위 음수 방향 번호를 이용하여 VLDN 값을 생성하고, 비디오 프레임 대해서 순차적으로 연속된 3개의 프레임에 대해서 VLDN 값을 모두 생성하여 상기 VLDN 특징 맵을 생성하는 VLDN 생성부; 를 포함하는 것을 특징으로 하는 미세 얼굴 표정을 분석하여 인간의 우울증 수준을 예측하는 장치
3 3
제 1항에 있어서상기 공간 정보 생성부는 상기 비디오 데이터에서 이미지를 임의로 4개의 영역으로 분할하고, 이미지 전체에서 공간 특징을 추출하고, 상기 4개의 영역에서 각각 공간 특징을 추출하여 공간 정보를 생성하는 것을 특징으로 하는 미세 얼굴 표정을 분석하여 인간의 우울증 수준을 예측하는 장치
4 4
제 1항에 있어서, 상기 수준 예측부는상기 재귀신경망이 2개의 층으로 구성된 BI- LSTM으로 하는 것을 특징으로 하는 미세 얼굴 표정을 분석하여 인간의 우울증 수준을 예측하는 장치
5 5
제 1항에 있어서, 상기 정보 처리부는상기 공간 정보와 상기 동적 정보에 대해서, 임의의 개수의 조각으로 분할한 후, 각 조각에 대한 중앙값을 반환하여 출력값으로 생성하는 것을 특징으로 하는미세 얼굴 표정을 분석하여 인간의 우울증 수준을 예측하는 장치
6 6
미세 얼굴 표정을 분석하여 인간의 우울증 수준을 예측하는 방법에 있어서, 얼굴 이미지와 비디오 데이터를 저장하는 단계; 상기 얼굴 이미지에서 공간 정보를 생성하는 단계; 상기 얼굴 비디오 데이터에서 3개의 연속된 프레임을 추출하고, 상기 연속된 프레임을 기준으로 얼굴 역학을 분석하기 위한 VLDN(volume local directional number) 특징 맵을 생성하는 단계; 상기 VLDN 특징 맵을 CNN(Deep Convolutional Neural Network) 모델에 입력하여 얼굴 움직임에 대한 동적 정보를 생성하는 단계; 상기 공간 정보와 동적 정보를 TMP(Temporal Median Pooling) 방법을 통하여 출력값으로 생성하는 단계; 상기 출력값을 재귀신경망을 기반으로 인간의 우울증 수준을 예측하는 단계; 를 포함하는미세 얼굴 표정을 분석하여 인간의 우울증 수준을 예측하는 방법
7 7
제 6항에 있어서, 상기 VLDN 특징 맵 생성하는 단계는상기 연속된 3개의 프레임의 kirsch 마스크에 기초하여 중심 픽셀의 인접한 인접 픽셀의 에지 응답을 계산하는 단계; 상기 인접 픽셀 중 최상위 양수 방향 번호와 최상위 음수 방향 번호를 확인하는 단계; 상기 최상위 양수 방향 번호와 상기 최상위 음수 방향 번호를 이용하여 VLDN 값을 생성하고, 비디오 프레임 대해서 순차적으로 연속된 3개의 프레임에 대해서 VLDN 값을 모두 생성하여 상기 VLDN 특징 맵을 생성하는 단계; 를 더 포함하는 것을 특징으로 하는 미세 얼굴 표정을 분석하여 인간의 우울증 수준을 예측하는 방법
8 8
제 6항에 있어서, 상기 공간 정보를 생성하는 단계는 상기 비디오 데이터에서 이미지를 임의로 4개의 영역으로 분할하고, 이미지 전체에서 공간 특징을 추출하고, 상기 4개의 영역에서 각각 공간 특징을 추출하여 공간 정보를 생성하는 것을 특징으로 하는 미세 얼굴 표정을 분석하여 인간의 우울증 수준을 예측하는 방법
9 9
제 6항에 있어서, 상기 수준을 예측하는 단계는 상기 재귀신경망이 2개의 층으로 구성된 BI- LSTM으로 하는 것을 특징으로 하는 미세 얼굴 표정을 분석하여 인간의 우울증 수준을 예측하는 방법
10 10
제 6항에 있어서, 상기 출력값으로 생성하는 단계는 상기 공간 정보와 상기 동적 정보에 대해서, 임의의 개수의 조각으로 분할한 후, 각 조각에 대한 중앙값을 반환하여 출력값으로 생성하는 것을 특징으로 하는미세 얼굴 표정을 분석하여 인간의 우울증 수준을 예측하는 방법
지정국 정보가 없습니다
패밀리정보가 없습니다
순번, 연구부처, 주관기관, 연구사업, 연구과제의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 국가R&D 연구정보 정보 표입니다.
순번 연구부처 주관기관 연구사업 연구과제
1 과학기술정보통신부 숙명여자대학교 산학협력단 SW 컴퓨팅기술개발사업 (기반 SW-창조씨앗 2 단계) SIAT 형 CCTV 클라우드 플랫폼