맞춤기술찾기

이전대상기술

사용자의 행동 범주를 분류하기 위한 인간 행동 인식 장치, 인간 행동 인식 방법 및 컴퓨터 프로그램

  • 기술번호 : KST2023003429
  • 담당센터 : 대전기술혁신센터
  • 전화번호 : 042-610-2279
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 본 개시는 인간 행동 인식 장치 및 방법에 관한 것으로, 본 개시의 실시 예에 따른 전자 장치에 의한 인간 행동 인식 방법에 있어서, 상기 인간 행동 인식 방법은 적어도 하나의 가속도 센서로부터 사용자의 움직임에 대응하는 제1 입력 신호를 획득하는 단계, 적어도 하나의 자이로스코프 센서로부터 상기 사용자의 움직임에 대응하는 제2 입력 신호를 획득하는 단계, 제1 모델을 이용하여 상기 제1 입력 신호에 대응하는 제1 모달리티(modality) 특징을 추출하는 단계, 제2 모델을 이용하여 상기 제2 입력 신호에 대응하는 제2 모달리티 특징을 추출하는 단계 및 제3 모델을 이용하여 상기 제1 모달리티 특징 및 상기 제2 모달리티 특징을 융합하여 획득된 멀티 모달리티 특징으로부터 상기 사용자의 행동 범주를 분류하는 단계를 포함한다.
Int. CL G06V 40/20 (2022.01.01) G06V 10/764 (2022.01.01) G06V 10/80 (2022.01.01) G06V 10/82 (2022.01.01) G06V 20/70 (2022.01.01) G01P 15/18 (2006.01.01) G01C 19/02 (2006.01.01)
CPC G06V 40/20(2013.01) G06V 10/764(2013.01) G06V 10/80(2013.01) G06V 10/82(2013.01) G06V 20/70(2013.01) G01P 15/18(2013.01) G01C 19/02(2013.01)
출원번호/일자 1020220094911 (2022.07.29)
출원인 국방과학연구소, 한국과학기술원
등록번호/일자 10-2515065-0000 (2023.03.23)
공개번호/일자
공고번호/일자 (20230329) 문서열기
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 등록
심사진행상태 수리
심판사항
구분 국내출원/신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2022.07.29)
심사청구항수 7

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 국방과학연구소 대한민국 대전광역시 유성구
2 한국과학기술원 대한민국 대전광역시 유성구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 김창익 대전광역시 유성구
2 구인용 대전광역시 유성구
3 박연주 대전광역시 유성구
4 정민기 대전광역시 유성구
5 이수민 대전광역시 유성구
6 우상민 대전광역시 유성구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 특허법인 광장리앤고 대한민국 서울특별시 중구 남대문로 **, *층(소공동, 한진빌딩 본관)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
1 국방과학연구소 대전광역시 유성구
2 한국과학기술원 대전광역시 유성구
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2022.07.29 수리 (Accepted) 1-1-2022-0799036-13
2 [우선심사신청]심사청구서·우선심사신청서
2022.07.29 수리 (Accepted) 1-1-2022-0799062-90
3 선행기술조사의뢰서
Request for Prior Art Search
2022.08.22 수리 (Accepted) 9-1-9999-9999999-89
4 선행기술조사보고서
Report of Prior Art Search
2022.09.01 발송처리완료 (Completion of Transmission) 9-6-2022-0189111-68
5 의견제출통지서
Notification of reason for refusal
2022.10.28 발송처리완료 (Completion of Transmission) 9-5-2022-0829086-70
6 [명세서등 보정]보정서
[Amendment to Description, etc.] Amendment
2022.11.28 보정승인간주 (Regarded as an acceptance of amendment) 1-1-2022-1271506-55
7 [거절이유 등 통지에 따른 의견]의견서·답변서·소명서
2022.11.28 수리 (Accepted) 1-1-2022-1271465-71
8 특허고객번호 정보변경(경정)신고서·정정신고서
2023.01.31 수리 (Accepted) 4-1-2023-5023571-05
9 등록결정서
Decision to grant
2023.02.27 발송처리완료 (Completion of Transmission) 9-5-2023-0193211-31
10 특허고객번호 정보변경(경정)신고서·정정신고서
2023.05.04 수리 (Accepted) 4-1-2023-5110236-33
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
전자 장치에 의한 인간 행동 인식 방법에 있어서,적어도 하나의 가속도 센서로부터 사용자의 움직임에 대응하는 제1 입력 신호를 획득하는 단계;적어도 하나의 자이로스코프 센서로부터 상기 사용자의 움직임에 대응하는 제2 입력 신호를 획득하는 단계;제1 모델을 이용하여 상기 제1 입력 신호에 대응하는 제1 모달리티(modality) 특징을 추출하는 단계;제2 모델을 이용하여 상기 제2 입력 신호에 대응하는 제2 모달리티 특징을 추출하는 단계; 및제3 모델을 이용하여 상기 제1 모달리티 특징 및 상기 제2 모달리티 특징을 융합하여 획득된 멀티 모달리티 특징으로부터 상기 사용자의 행동 범주를 분류하는 단계를 포함하되,상기 제1 입력 신호를 획득하는 단계는:제1 샘플링 레이트(sampling rate)에 대응하여 상기 사용자의 움직임에 대응하는 제1 센싱 신호를 획득하는 단계; 및슬라이딩 윈도우(sliding window) 방식을 기반으로 상기 제1 센싱 신호로부터 상기 제1 입력 신호를 획득하는 단계를 포함하고,상기 제2 입력 신호를 획득하는 단계는:제2 샘플링 레이트에 대응하여 상기 사용자의 움직임에 대응하는 제2 센싱 신호를 획득하는 단계; 및상기 슬라이딩 윈도우 방식을 기반으로 상기 제2 센싱 신호로부터 상기 제2 입력 신호를 획득하는 단계를 포함하고,상기 제1 모델, 상기 제2 모델 및 상기 제3 모델은 인간 행동 범주 예측과 관련된 지도(supervised) 학습 및 상기 제1 입력 신호 및 상기 제2 입력 신호의 페어링(pairing)과 관련된 비지도(unsupervised) 학습을 수행하고,상기 지도 학습은 상기 제1 센싱 신호, 상기 제2 센싱 신호 및 상기 사용자의 행동 범주에 대응하는 레이블을 기반으로 수행되고,상기 비지도 학습은 상기 사용자의 하나의 움직임으로부터 획득된 상기 제1 입력 신호 및 상기 제2 입력 신호를 매칭하도록 수행되고,상기 제1 모델, 상기 제2 모델 및 상기 제3 모델은 하기 수학식 1의 최종 손실 함수()를 기반으로 상기 인간 행동 범주를 분류하기 위한 학습을 수행하는 인간 행동 인식 방법
2 2
삭제
3 3
삭제
4 4
삭제
5 5
제1 항에 있어서,상기 제1 임베딩은 하기 수학식 2에 의하여 도출되고,상기 제2 임베딩은 하기 수학식 3에 의하여 도출되는 인간 행동 인식 방법
6 6
제1 항에 있어서,상기 제1 입력 신호에 대응하는 제1 모달리티 특징을 추출하는 단계는:상기 제1 입력 신호에 대한 제1 합성곱 연산을 수행하고, 상기 제1 합성곱 연산의 결과에 대한 제1 최대 풀링(max pooling) 연산을 수행하는 단계;상기 제1 최대 풀링 연산의 결과에 대한 제2 합성곱 연산을 수행하고, 상기 제2 합성곱 연산의 결과에 대한 제2 최대 풀링 연산을 수행하는 단계;상기 제2 최대 풀링 연산의 결과에 대한 제3 합성곱 연산을 수행하는 단계; 및상기 제3 합성곱 연산에 대한 전역 평균(global average pooling, GAP) 연산을 수행하여 상기 제1 모달리티 특징을 추출하는 단계를 포함하는 인간 행동 인식 방법
7 7
제1 항에 있어서,상기 멀티 모달리티 특징으로부터 상기 사용자의 행동 범주를 분류하는 단계는 배치 정규화(batch normalization) 및 드롭 아웃(dropout) 기법이 적용되는 인간 행동 인식 방법
8 8
제1 항에 있어서,상기 멀티 모달리티 특징으로부터 상기 사용자의 행동 범주를 분류하는 단계는 소프트맥스(softmax) 함수를 이용하는 인간 행동 인식 방법
9 9
명령어를 저장하는 메모리; 및프로세서를 포함하되,상기 메모리와 연결되는 상기 프로세서는,제1 모델을 이용하여 사용자의 움직임과 관련하여 적어도 하나의 가속도 센서로부터 획득된 제1 입력 신호에 대응하는 제1 모달리티(modality) 특징을 추출하고,제2 모델을 이용하여 상기 사용자의 움직임과 관련하여 적어도 하나의 자이로스코프 센서로부터 획득된 제2 입력 신호에 대응하는 제2 모달리티 특징을 추출하고,제3 모델을 이용하여 상기 제1 모달리티 특징 및 상기 제2 모달리티 특징을 융합하여 획득된 멀티 모달리티 특징으로부터 상기 사용자의 행동 범주를 분류하되,상기 제1 입력 신호는 제1 샘플링 레이트(sampling rate)에 대응하여 상기 사용자의 움직임에 대응하여 획득된 제1 센싱 신호로부터 슬라이딩 윈도우(sliding window) 방식을 기반으로 획득되고,상기 제2 입력 신호는 제2 샘플링 레이트에 대응하여 상기 사용자의 움직임에 대응하여 획득된 제2 센싱 신호로부터 상기 슬라이딩 윈도우 방식을 기반으로 획득되고,상기 제1 모델, 상기 제2 모델 및 상기 제3 모델은 인간 행동 범주 예측과 관련된 지도(supervised) 학습 및 상기 제1 입력 신호 및 상기 제2 입력 신호의 페어링(pairing)과 관련된 비지도(unsupervised) 학습을 수행하고,상기 지도 학습은 상기 제1 센싱 신호, 상기 제2 센싱 신호 및 상기 사용자의 행동 범주에 대응하는 레이블을 기반으로 수행되고,상기 비지도 학습은 상기 사용자의 하나의 움직임으로부터 획득된 상기 제1 입력 신호 및 상기 제2 입력 신호를 매칭하도록 수행되고,상기 제1 모델, 상기 제2 모델 및 상기 제3 모델은 하기 수학식 1의 최종 손실 함수()를 기반으로 인간 행동 범주를 분류하기 위한 학습을 수행하는 인간 행동 인식 장치
10 10
하드웨어와 결합되어, 인간 행동 인식 방법을 실행시키기 위하여 컴퓨터 판독 가능 저장 매체에 저장된 컴퓨터 프로그램에 있어서,상기 인간 행동 인식 방법은:적어도 하나의 가속도 센서로부터 사용자의 움직임에 대응하는 제1 입력 신호를 획득하는 단계;적어도 하나의 자이로스코프 센서로부터 상기 사용자의 움직임에 대응하는 제2 입력 신호를 획득하는 단계;제1 모델을 이용하여 상기 제1 입력 신호에 대응하는 제1 모달리티(modality) 특징을 추출하는 단계;제2 모델을 이용하여 상기 제2 입력 신호에 대응하는 제2 모달리티 특징을 추출하는 단계; 및제3 모델을 이용하여 상기 제1 모달리티 특징 및 상기 제2 모달리티 특징을 융합하여 획득된 멀티 모달리티 특징으로부터 상기 사용자의 행동 범주를 분류하는 단계를 포함하되,상기 제1 입력 신호를 획득하는 단계는:제1 샘플링 레이트(sampling rate)에 대응하여 상기 사용자의 움직임에 대응하는 제1 센싱 신호를 획득하는 단계; 및슬라이딩 윈도우(sliding window) 방식을 기반으로 상기 제1 센싱 신호로부터 상기 제1 입력 신호를 획득하는 단계를 포함하고,상기 제2 입력 신호를 획득하는 단계는:제2 샘플링 레이트에 대응하여 상기 사용자의 움직임에 대응하는 제2 센싱 신호를 획득하는 단계; 및상기 슬라이딩 윈도우 방식을 기반으로 상기 제2 센싱 신호로부터 상기 제2 입력 신호를 획득하는 단계를 포함하고,상기 제1 모델, 상기 제2 모델 및 상기 제3 모델은 인간 행동 범주 예측과 관련된 지도(supervised) 학습 및 상기 제1 입력 신호 및 상기 제2 입력 신호의 페어링(pairing)과 관련된 비지도(unsupervised) 학습을 수행하고,상기 지도 학습은 상기 제1 센싱 신호, 상기 제2 센싱 신호 및 상기 사용자의 행동 범주에 대응하는 레이블을 기반으로 수행되고,상기 비지도 학습은 상기 사용자의 하나의 움직임으로부터 획득된 상기 제1 입력 신호 및 상기 제2 입력 신호를 매칭하도록 수행되고,상기 제1 모델, 상기 제2 모델 및 상기 제3 모델은 하기 수학식 1의 최종 손실 함수()를 기반으로 인간 행동 범주를 분류하기 위한 학습을 수행하는 컴퓨터 프로그램
지정국 정보가 없습니다
패밀리정보가 없습니다
국가 R&D 정보가 없습니다.