맞춤기술찾기

이전대상기술

명찰형 웨어러블 디바이스를 활용한 앙상블 지도학습 기반의 일상생활동작 분류 방법 및 장치

  • 기술번호 : KST2022007937
  • 담당센터 : 경기기술혁신센터
  • 전화번호 : 031-8006-1570
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 가속도 센서 및 자이로스코프 센서를 통해 수집되는 데이터를 딥 러닝 학습된 CNN 모델 및 LSTM 모델에 입력하여 사용자의 일상생활동작을 분류하는 방법 및 장치가 제공된다. 본 발명의 실시예에 따른 일상생활동작 분류 방법은, 웨어러블 타입의 데이터 수집부를 통해 모션 센서 데이터를 획득하는 단계; 프로세서가, 모션 센서 데이터를 CNN 모델 및 LSTM 모델의 학습 데이터 또는 입력 데이터로 활용하기 위한 전처리 작업을 수행하는 단계; 프로세서가, 전처리 작업이 완료된 모션 센서 데이터를 학습 데이터로 입력하여, CNN 모델 및 LSTM 모델을 학습시키는 단계; 및 프로세서가, 학습된 CNN 모델 및 LSTM 모델에 전처리 작업이 완료된 모션 센서 데이터를 입력 데이터로 입력하여, 사용자의 일상생활동작을 낙상 동작, 서있는 동작, 걷는 동작, 뛰는 동작 및 앉거나 일어서는 동작 중 어느 하나로 분류하는 단계;를 포함한다. 이에 의해, 수집된 데이터를 하나의 학습 모델에 적용하지 않고, CNN 모델 및 LSTM 모델에 각각 적용하여, 복수의 예측 모델을 생성하되, 각 예측 모델의 투표 과정을 통해 보다 정확하게 일상생활동작을 분류할 수 있다.
Int. CL G08B 21/04 (2006.01.01)
CPC
출원번호/일자 1020210081261 (2021.06.23)
출원인 한국전자기술연구원
등록번호/일자
공개번호/일자 10-2022-0078458 (2022.06.10)
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보 대한민국  |   1020200167436   |   2020.12.03
법적상태 공개
심사진행상태 수리
심판사항
구분 국내출원/신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 N
심사청구항수 8

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 한국전자기술연구원 대한민국 경기도 성남시 분당구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 구기원 광주광역시 광산구
2 이정기 광주광역시 남구
3 양철승 광주광역시 광산구
4 박진수 광주광역시 광산구
5 정지성 광주광역시 광산구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 남충우 대한민국 서울 강남구 언주로 ***, *층(역삼동, 광진빌딩)(알렉스국제특허법률사무소)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2021.06.23 수리 (Accepted) 1-1-2021-0721747-61
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
웨어러블 타입의 데이터 수집부를 통해 모션 센서 데이터를 획득하는 단계;프로세서가, 모션 센서 데이터를 CNN(Convolutional Neural Network) 모델 및 LSTM(Long Short-Term Memory) 모델의 학습 데이터 또는 입력 데이터로 활용하기 위한 전처리 작업을 수행하는 단계;프로세서가, 전처리 작업이 완료된 모션 센서 데이터를 학습 데이터로 입력하여, CNN 모델 및 LSTM 모델을 학습시키는 단계; 및프로세서가, 학습된 CNN 모델 및 LSTM 모델에 전처리 작업이 완료된 모션 센서 데이터를 입력 데이터로 입력하여, 사용자의 일상생활동작을 낙상 동작, 서있는 동작, 걷는 동작, 뛰는 동작 및 앉거나 일어서는 동작 중 어느 하나로 분류하는 단계;를 포함하는 일상생활동작 분류 방법
2 2
청구항 1에 있어서,모션 센서 데이터는,가속도 3축 데이터, 자이로스코프 3축 데이터 및 가속도0026#자이로스코프 6축 데이터를 포함하며,모션 센서 데이터는,수집되는 과정에서 기설정된 주기 단위로 프레임화되는 것을 특징으로 하는 일상생활동작 분류 방법
3 3
청구항 2에 있어서,전처리 작업을 수행하는 단계는,CNN 모델의 학습 데이터 또는 입력 데이터로 활용하기 위해, 모션 센서 데이터를 대상으로 정규화 작업 및 이미지화 작업을 수행하는 것을 특징으로 하는 일상생활동작 분류 방법
4 4
청구항 2에 있어서,전처리 작업을 수행하는 단계는,CNN 모델 및 LSTM 모델의 학습 데이터로 활용하고자 하는 모션 센서 데이터를 일상생활동작 중 어느 하나로 분류하여, 분류 결과에 따라 라벨번호를 부여하는 데이터 라벨링 작업을 수행하는 것을 특징으로 하는 일상생활동작 분류 방법
5 5
청구항 4에 있어서,학습시키는 단계는, 데이터 라벨링 작업이 완료된 모션 센서 데이터를 CNN 모델 및 LSTM 모델에 각각 학습 데이터로 입력하여, 3축 CNN 모델, 3축 LSTM 모델, 6축 CNN 모델 및 6축 LSTM 모델을 학습시키는 것을 특징으로 하는 일상생활동작 분류 방법
6 6
청구항 5에 있어서,분류하는 단계는,학습된 3축 CNN 모델, 3축 LSTM 모델, 6축 CNN 모델 및 6축 LSTM 모델에 전처리 작업이 완료된 모션 센서 데이터를 입력 데이터로 입력하여 모델별로 각각의 예측 데이터를 획득하고, 획득된 각각의 예측 데이터를 종합하여 낙상 동작, 서있는 동작, 걷는 동작, 뛰는 동작 및 앉거나 일어서는 동작 중 가장 높은 확률을 갖는 동작을 분류 결과로 도출하는 것을 특징으로 하는 일상생활동작 분류 방법
7 7
청구항 1에 있어서,일상생활동작의 분류 작업이 완료된 이후, 사용자의 모션 센서 데이터가 추가로 수집되면, 추가로 수집된 모션 센서 데이터를 기반으로 학습된 CNN 모델 및 LSTM 모델을 재학습시키는 단계;를 더 포함하는 것을 특징으로 하는 일상생활동작 분류 방법
8 8
웨어러블 타입으로 구현되어, 모션 센서 데이터를 획득하는 데이터 수집부; 및모션 센서 데이터를 CNN(Convolutional Neural Network) 모델 및 LSTM(Long Short-Term Memory) 모델의 학습 데이터 또는 입력 데이터로 활용하기 위한 전처리 작업을 수행하고, 전처리 작업이 완료된 모션 센서 데이터를 학습 데이터로 입력하여, CNN 모델 및 LSTM 모델을 학습시키며, 학습된 CNN 모델 및 LSTM 모델에 전처리 작업이 완료된 모션 센서 데이터를 입력 데이터로 입력하여, 사용자의 일상생활동작을 낙상 동작, 서있는 동작, 걷는 동작, 뛰는 동작 및 앉거나 일어서는 동작 중 어느 하나로 분류하는 프로세서;를 포함하는 일상생활동작 분류 장치
지정국 정보가 없습니다
패밀리정보가 없습니다
순번, 연구부처, 주관기관, 연구사업, 연구과제의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 국가R&D 연구정보 정보 표입니다.
순번 연구부처 주관기관 연구사업 연구과제
1 중소벤처기업부 (주)엘탑 창업성장기술개발(R&D) 고령자 수면케어를 위한 AI 슬립매트 개발