맞춤기술찾기

이전대상기술

행동-인식 연결 학습 기반 의도 이해 장치, 방법 및 그 방법을 수행하기 위한 기록 매체

  • 기술번호 : KST2018010363
  • 담당센터 : 대구기술혁신센터
  • 전화번호 : 053-550-1450
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 행동-인식 연결 학습 기반 의도 이해 장치는, 매 프레임마다 관측되는 사용자 행동의 관절 정보 및 사용자 주변 환경의 객체 정보를 검출하는 입력부; 상기 입력부로부터 수신한 상기 관절 정보 및 상기 객체 정보를 인공 신경망 처리가 가능하도록 전처리하는 전처리부; 상기 전처리부에서 출력된 상기 관절 정보 및 상기 객체 정보를 기초로, 사용자의 행동 정보를 분류하는 행동 인식 처리부; 상기 전처리부에서 출력된 객체 정보 및 상기 행동 인식 처리부에서 출력된 행동 정보를 이용하여, 사용자의 행동과 관련된 객체 후보군을 출력하는 객체 관계 정보 처리부; 및 상기 행동 인식 처리부에서 출력된 행동 정보 및 상기 객체 관계 정보 처리부에서 출력된 객체 후보군을 입력으로 하는 인공 신경망을 통해 사용자 의도 인식 결과를 출력하는 의도 출력부를 포함한다. 이에 따라, 사용자 행동과, 그 행동에 관계된 객체 정보로부터 사용자의 의도를 정확하게 예측 가능하다.
Int. CL G06N 3/08 (2006.01.01) G06F 3/01 (2006.01.01) G06K 9/00 (2006.01.01)
CPC
출원번호/일자 1020170022051 (2017.02.20)
출원인 경북대학교 산학협력단
등록번호/일자
공개번호/일자 10-2018-0084576 (2018.07.25) 문서열기
공고번호/일자 문서열기
국제출원번호/일자
국제공개번호/일자
우선권정보 대한민국  |   1020170007887   |   2017.01.17
법적상태 등록
심사진행상태 수리
심판사항
구분 신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2017.02.20)
심사청구항수 14

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 경북대학교 산학협력단 대한민국 대구광역시 북구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 이민호 대한민국 대구광역시 수성구
2 김상욱 대한민국 대구광역시 북구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 윤귀상 대한민국 서울특별시 금천구 디지털로*길 ** ***호 (가산동, 한신IT타워*차)(디앤특허법률사무소)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
1 경북대학교 산학협력단 대한민국 대구광역시 북구
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2017.02.20 수리 (Accepted) 1-1-2017-0169626-13
2 출원인정보변경(경정)신고서
Notification of change of applicant's information
2018.03.26 수리 (Accepted) 4-1-2018-5051994-32
3 의견제출통지서
Notification of reason for refusal
2018.09.21 발송처리완료 (Completion of Transmission) 9-5-2018-0652912-55
4 [명세서등 보정]보정서
[Amendment to Description, etc.] Amendment
2018.11.02 보정승인간주 (Regarded as an acceptance of amendment) 1-1-2018-1085990-38
5 [거절이유 등 통지에 따른 의견]의견(답변, 소명)서
[Opinion according to the Notification of Reasons for Refusal] Written Opinion(Written Reply, Written Substantiation)
2018.11.02 수리 (Accepted) 1-1-2018-1085989-92
6 거절결정서
Decision to Refuse a Patent
2019.03.08 발송처리완료 (Completion of Transmission) 9-5-2019-0174888-02
7 [명세서등 보정]보정서(재심사)
Amendment to Description, etc(Reexamination)
2019.04.10 보정승인 (Acceptance of amendment) 1-1-2019-0365349-93
8 [거절이유 등 통지에 따른 의견]의견(답변, 소명)서
[Opinion according to the Notification of Reasons for Refusal] Written Opinion(Written Reply, Written Substantiation)
2019.04.10 수리 (Accepted) 1-1-2019-0365348-47
9 수수료 반환 안내서
Notification of Return of Official Fee
2019.04.12 발송처리완료 (Completion of Transmission) 1-5-2019-0062866-06
10 등록결정서
Decision to Grant Registration
2019.04.16 발송처리완료 (Completion of Transmission) 9-5-2019-0275438-61
11 출원인정보변경(경정)신고서
Notification of change of applicant's information
2020.06.23 수리 (Accepted) 4-1-2020-5136893-04
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
매 프레임마다 관측되는 사용자 행동의 관절 정보 및 사용자 주변 환경의 객체 정보를 검출하는 입력부;상기 입력부로부터 수신한 상기 관절 정보를 정규화 및 부호화하는 관절 정보 전처리부와, 상기 사용자 주변 환경을 구성하는 복수의 객체 정보 중 현재 프레임에서 사용자가 선택한 특정 객체 정보의 레이블을 검출하여 인공 신경망 처리가 가능하도록 전처리하는 객체 정보 전처리부로 구성된 전처리부;상기 전처리부에서 출력된 상기 관절 정보 및 상기 특정 객체 정보를 기초로, 현재 프레임에서의 사용자의 행동 정보를 분류하는 행동 인식 처리부;상기 전처리부에서 출력된 현재 프레임에서 사용자가 선택한 상기 특정 객체 정보 및 상기 행동 인식 처리부에서 출력된 현재 프레임에서의 사용자의 행동 정보를 자가 부호화망(auto-encoder network)을 통해 객체 관계를 모델링하여, 상기 복수의 객체 정보 중 다음 프레임에서 사용자가 선택할 것으로 예측되는 객체를 추정하여 이를 객체 후보군으로 출력하는 객체 관계 정보 처리부; 및상기 행동 인식 처리부에서 출력된 행동 정보 및 상기 객체 관계 정보 처리부에서 출력된 객체 후보군을 입력으로 하는 인공 신경망을 통해 사용자 의도 인식 결과를 출력하는 의도 출력부를 포함하되,상기 객체 관계 정보 처리부는,상기 객체 후보군을 이용하여 예측 노드와 숨겨진 계층 간의 가중치를 학습하고, 학습 결과에 따라 예측 노드와 숨겨진 계층 간의 가중치를 제외한 나머지 가중치를 재조정하여 누락된 객체를 재구성하는, 행동-인식 연결 학습 기반 의도 이해 장치
2 2
제1항에 있어서, 상기 입력부는,가시광선대 영상 센서 및 능동적 적외선 패턴 투사 센서 중 적어도 하나의 정보를 바탕으로, 사용자의 주요 관절의 이차원 또는 삼차원 위치 정보를 실시간으로 수집하는, 행동-인식 연결 학습 기반 의도 이해 장치
3 3
제2항에 있어서, 상기 입력부는,감지 영역 내에 사용자가 다수일 경우, 각 사용자의 행동 모델링 정보의 간섭을 피하기 위해 얼굴 인식 또는 추적 기능 중 적어도 하나를 수행하는, 행동-인식 연결 학습 기반 의도 이해 장치
4 4
삭제
5 5
제1항에 있어서, 상기 관절 정보 전처리부는,상기 입력부의 감지 영역 내에서 획득되는 절대 좌표 기반의 주요 관절 정보를 사용자 별 상대 좌표 표현으로 정규화하는 정규화부; 및자가 생성 맵(SOM; self-organizing map)을 사용하여 정규화된 상대 좌표 표현을 신경망 입력 방식으로 표현하는 부호화부를 포함하는, 행동-인식 연결 학습 기반 의도 이해 장치
6 6
삭제
7 7
제1항에 있어서, 상기 행동 인식 처리부는,상기 전처리부에서 출력된 상기 관절 정보 및 상기 특정 객체 정보를 회귀 신경망을 통해 모델링하여, 행동 인식이 가능하도록 인식 전용 노드를 지정하는, 행동-인식 연결 학습 기반 의도 이해 장치
8 8
제7항에 있어서, 상기 행동 인식 처리부는,실시간 처리 단계 및 시험 단계에서 주어진 입력에 대응하여 출력되는 인식 전용 노드를 학습할 때, 사용자 행동 벡터들과 비교하여 가장 가까운 행동을 추출하는, 행동-인식 연결 학습 기반 의도 이해 장치
9 9
삭제
10 10
제1항에 있어서,상기 사용자 행동의 관절 정보는, 척추 중반, 목, 머리, 어깨 왼쪽, 팔꿈치 왼쪽, 손목 왼쪽, 어깨 오른쪽, 팔꿈치 오른쪽, 손목 오른쪽, 엉덩이 왼쪽, 엉덩이 오른쪽 및 어깨(Spine Shoulder) 중 적어도 하나의 골격점이 사용되는, 행동-인식 연결 학습 기반 의도 이해 장치
11 11
행동-인식 연결 학습 기반 의도 이해 장치에 의해 수행되는 행동-인식 연결 학습 기반 의도 이해 방법에 있어서,상기 행동-인식 연결 학습 기반 의도 이해 장치가, 매 프레임마다 관측되는 사용자 행동의 관절 정보 및 사용자 주변 환경의 객체 정보를 검출하는 단계;상기 행동-인식 연결 학습 기반 의도 이해 장치가, 상기 관절 정보를 정규화 및 부호화하고, 상기 사용자 주변 환경을 구성하는 복수의 객체 정보 중 현재 프레임에서 사용자가 선택한 특정 객체 정보의 레이블을 검출하여 인공 신경망 처리가 가능하도록 전처리하는 전처리 단계;상기 행동-인식 연결 학습 기반 의도 이해 장치가, 상기 전처리 단계에서 출력된 상기 관절 정보 및 상기 특정 객체 정보를 기초로, 현재 프레임에서의 사용자의 행동 정보를 분류하는 행동 인식 처리 단계;상기 행동-인식 연결 학습 기반 의도 이해 장치가, 상기 전처리 단계에서 출력된 상기 특정 객체 정보 및 상기 행동 인식 처리 단계에서 출력된 행동 정보를 이용하여, 상기 복수의 객체 정보 중 다음 프레임에서 사용자가 선택할 것으로 예측되는 객체를 추정하여 이를 객체 후보군으로 출력하는 객체 관계 정보 처리 단계; 및상기 행동-인식 연결 학습 기반 의도 이해 장치가, 상기 행동 인식 처리 단계에서 출력된 행동 정보 및 상기 객체 관계 정보 처리 단계에서 출력된 객체 후보군을 입력으로 하는 인공 신경망을 통해 사용자 의도 인식 결과를 출력하는 의도 출력 단계를 포함하되,상기 객체 관계 정보 처리 단계에서, 상기 객체 후보군을 이용하여 예측 노드와 숨겨진 계층 간의 가중치를 학습하고, 학습 결과에 따라 예측 노드와 숨겨진 계층 간의 가중치를 제외한 나머지 가중치를 재조정하여 누락된 객체를 재구성하는 것을 더 포함하는, 행동-인식 연결 학습 기반 의도 이해 방법
12 12
제11항에 있어서, 상기 사용자 주변 환경의 객체 정보를 검출하는 단계는,가시광선대 영상 센서 및 능동적 적외선 패턴 투사 센서 중 적어도 하나의 정보를 바탕으로, 사용자의 주요 관절의 이차원 또는 삼차원 위치 정보를 실시간으로 수집하는, 행동-인식 연결 학습 기반 의도 이해 방법
13 13
제12항에 있어서, 상기 사용자 주변 환경의 객체 정보를 검출하는 단계는,감지 영역 내에 사용자가 다수일 경우, 각 사용자의 행동 모델링 정보의 간섭을 피하기 위해 얼굴 인식 또는 추적 기능 중 적어도 하나를 수행하는, 행동-인식 연결 학습 기반 의도 이해 방법
14 14
제11항에 있어서, 상기 전처리 단계는,감지 영역 내에서 획득되는 절대 좌표 기반의 주요 관절 정보를 사용자 별 상대 좌표 표현으로 정규화하는 단계; 및자가 생성 맵(SOM; self-organizing map)을 사용하여 정규화된 상대 좌표 표현을 신경망 입력 방식으로 표현하는 부호화 단계를 포함하는, 행동-인식 연결 학습 기반 의도 이해 방법
15 15
삭제
16 16
삭제
17 17
제11항에 있어서, 상기 행동 인식 처리 단계는,상기 전처리 단계에서 출력된 상기 관절 정보 및 상기 객체 정보를 회귀 신경망을 통해 모델링하여, 행동 인식이 가능하도록 인식 전용 노드를 지정하는, 행동-인식 연결 학습 기반 의도 이해 방법
18 18
제17항에 있어서, 상기 행동 인식 처리 단계는,실시간 처리 단계 및 시험 단계에서 주어진 입력에 대응하여 출력되는 인식 전용 노드를 학습할 때, 사용자 행동 벡터들과 비교하여 가장 가까운 행동을 추출하는, 행동-인식 연결 학습 기반 의도 이해 방법
19 19
삭제
20 20
제11항에 따른 행동-인식 연결 학습 기반 의도 이해 방법을 수행하기 위한, 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체
지정국 정보가 없습니다
패밀리정보가 없습니다
순번, 연구부처, 주관기관, 연구사업, 연구과제의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 국가R&D 연구정보 정보 표입니다.
순번 연구부처 주관기관 연구사업 연구과제
1 산업통상자원부 한양대학교 산학협력단 로봇산업핵심기술개발 지속적인 상호작용을 통하여 사용자의 복합정서 이해 및 교류의도를 파악하고, 이에 대한 대응을 95%이상 적절하게 할 수 있는 자율발달 쌍방향 HRI 기술 개발
2 미래창조과학부 경북대학교 산학협력단 SW컴퓨팅산업원천기술개발 사용자의 의도와 맥락을 이해하는 지능형 인터랙션 기술 연구개발