맞춤기술찾기

이전대상기술

행동 인식을 위한 자기 지도 샘플러 및 이를 이용하는 영상 감시 시스템

  • 기술번호 : KST2023004982
  • 담당센터 : 대전기술혁신센터
  • 전화번호 : 042-610-2279
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 본 발명의 다른 일실시예에 따른 샘플러를 포함하는 행동 인식 모델의 행동인식방법은 상기 학습방법에 의해 학습된 샘플러가 다운샘플링된 비디오 클립을 수신하는 수신단계; 상기 학습된 샘플러는 다운샘플링된 비디오 클립의 전체 프레임의 각 프레임별로 무관련성 점수들을 예측하는 점수예측단계; 상기 각 프레임에 대한 예측된 무관련성 점수에 기초하여 행동 무관련 프레임을 제거하는 프레임제거단계; 및 비디오 클립의 프레임 중 무관련성 프레임을 제거하여 남은 프레임 중 선택된 프레임들을 입력으로 받아 행동인식모델이 행동인식을 수행하는 행동인식단계;를 포함하는 것을 특징으로 한다.
Int. CL G06V 40/20 (2022.01.01) G06V 10/774 (2022.01.01) G06V 10/72 (2022.01.01) G06V 10/26 (2022.01.01) G06V 20/40 (2022.01.01) G06V 10/44 (2022.01.01) G06V 20/52 (2022.01.01) G06V 10/62 (2022.01.01) G06T 7/70 (2017.01.01) G06N 3/08 (2023.01.01) H04N 7/18 (2023.01.01)
CPC G06V 40/20(2013.01) G06V 10/774(2013.01) G06V 10/72(2013.01) G06V 10/273(2013.01) G06V 20/40(2013.01) G06V 10/454(2013.01) G06V 20/52(2013.01) G06V 10/62(2013.01) G06T 7/70(2013.01) G06N 3/08(2013.01) H04N 7/18(2013.01)
출원번호/일자 1020220143407 (2022.11.01)
출원인 한밭대학교 산학협력단
등록번호/일자 10-2529876-0000 (2023.05.02)
공개번호/일자
공고번호/일자 (20230509) 문서열기
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 등록
심사진행상태 수리
심판사항
구분 국내출원/신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2022.11.01)
심사청구항수 12

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 한밭대학교 산학협력단 대한민국 대전광역시 유성구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 최동걸 서울특별시 서초구
2 서민석 대전광역시 유성구
3 이상우 대전광역시 서구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 특허법인 플러스 대한민국 대전광역시 서구 한밭대로 ***번지 (둔산동, 사학연금회관) **층

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
1 한밭대학교 산학협력단 대전광역시 유성구
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2022.11.01 수리 (Accepted) 1-1-2022-1156739-66
2 [우선심사신청]심사청구서·우선심사신청서
2022.11.02 수리 (Accepted) 1-1-2022-1162499-99
3 선행기술조사의뢰서
Request for Prior Art Search
2022.11.17 수리 (Accepted) 9-1-9999-9999999-89
4 선행기술조사보고서
Report of Prior Art Search
2022.11.30 발송처리완료 (Completion of Transmission) 9-6-2023-0003341-81
5 특허고객번호 정보변경(경정)신고서·정정신고서
2022.12.26 수리 (Accepted) 4-1-2022-5305861-32
6 의견제출통지서
Notification of reason for refusal
2023.01.19 발송처리완료 (Completion of Transmission) 9-5-2023-0068975-95
7 [거절이유 등 통지에 따른 의견]의견서·답변서·소명서
2023.02.21 수리 (Accepted) 1-1-2023-0203464-19
8 [명세서등 보정]보정서
[Amendment to Description, etc.] Amendment
2023.02.21 보정승인간주 (Regarded as an acceptance of amendment) 1-1-2023-0203437-86
9 등록결정서
Decision to grant
2023.04.27 발송처리완료 (Completion of Transmission) 9-5-2023-0394308-75
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
CNN 기반의 자기 지도 샘플러의 학습방법에 있어서,학습을 위한 제1 비디오 및 제2 비디오를 수신하는 수신단계;수신된 제2 비디오에서 하나의 무관한 프레임을 추출하고, 추출된 프레임을 제1 비디오에 혼합하여 무관한 프레임을 갖는 제1 비디오를 생성하는 혼합단계; 및상기 혼합된 제1 비디오에서 어느 프레임이 혼합된 프레임인지 식별하도록 학습하는 학습단계;를 포함하여 구성되며,상기 혼합단계는수신한 제2 비디오의 클립의 하나의 무관한 프레임을 수신한 제1 비디오의 클립에 랜덤하게 혼합하여 무관한 프레임을 갖는 제1 비디오의 클립을 생성하며,상기 무관한 프레임을 갖는 제1 비디오의 클립은배치(batch) 축에 따라 미니-배치 X를 셔플링하여 를 얻는 과정 - 여기서 B는 배치(batch) 크기이고, T는 시간 차원이고, C는 채널의 수이고, H 및 W는 공간 차원으로 정의되며 -; 및미니-배치 X 내의 각각의 비디오 클립 Xb에 대해, 시간 t에서 하나의 프레임 Xb(t)를 랜덤하게 선택하고, 그 후 그것을 시간 t에서 셔플링된 미니-배치 내의 b-번째 클립의 프레임 와 교환하는 과정;으로 얻어지며,상기 교환 과정은 다음 수식과 같이 표현되며,여기서, 및 는 자기 지도 샘플러를 훈련하기 위한 입력들 및 라벨들이고, Yb는 각각의 비디오 클립 에 대해 원-핫 벡터(one-hot vector)이고, Yb(t)는 프레임을 교환할 때 1이며 그 외는 0이 되는 것을 특징으로 하는 CNN 기반의 자기 지도 샘플러의 학습방법
2 2
제 1 항에 있어서, 상기 학습단계는혼합된 제1 비디오의 클립을 입력으로 하여 자기 지도 샘플러를 훈련하여 무관한 프레임의 인덱스를 찾도록 하며, 하나의 무관한 프레임을 갖는 제1 비디오 클립이 자기 지도 샘플러의 입력이고, 그 프레임의 인덱스가 목표 라벨이 되는 것을 특징으로 하는 CNN 기반의 자기 지도 샘플러의 학습방법
3 3
삭제
4 4
제 2 항에 있어서, 상기 자기 지도 샘플러 는 하나의 준비된 비디오 클립 를 취하고, 그 후 하나의 비디오 클립 내의 각각의 프레임에 대한 비관련성 점수 를 생성하며, 손실 함수를 기반으로 파라미터 Θ를 업데이트하는 것을 특징으로 하는 CNN 기반의 자기 지도 샘플러의 학습방법
5 5
자기 지도 샘플러를 포함하는 행동 인식 모델의 행동인식방법에 있어서, 제1항의 특징을 갖는 학습방법에 의해 학습된 자기 지도 샘플러가,다운샘플링된 비디오 클립을 수신하는 수신단계;다운샘플링된 비디오 클립의 전체 프레임의 각 프레임별로 무관련성 점수들을 예측하는 점수예측단계;상기 각 프레임에 대한 예측된 무관련성 점수에 기초하여 행동 무관련 프레임을 제거하는 프레임제거단계; 및비디오 클립의 프레임 중 무관련성 프레임을 제거하여 남은 프레임 중 선택된 프레임들을 입력으로 받아 행동인식모델이 행동인식을 수행하는 행동인식단계;를 포함하는 것을 특징으로 하는 자기 지도 샘플러를 포함하는 행동 인식 모델의 행동인식방법
6 6
제 5 항에 있어서, 상기 프레임제거단계는임계값과 비교를 통해 각 프레임의 예측된 무관련성 점수가 임계값보다 높은 프레임을 제거하는 것을 특징으로 하는 자기 지도 샘플러를 포함하는 행동 인식 모델의 행동인식방법
7 7
제 6 항에 있어서, 자기 지도 샘플러 네트워크 는 5개의 3D-CNN 레이어로 구성되며,는 비디오 클립들로 구성된 하나의 다운샘플링된 입력 미니 배치를 나타내고, 여기서 B는 배치(batch) 크기이고, T는 시간 차원이고, C는 채널의 수이고, H 및 W는 공간 차원으로 정의하면, 상기 학습된 자기 지도 샘플러는 하나의 미니-배치 X 내의 b번째 비디오 클립 Xb로부터의 각각의 프레임에 대한 비관련성 점수를 다음 수식과 같이 예측하며,여기서 및 Θ는 각각 자기 지도 샘플러의 비관련성 점수 및 학습 가능한 파라미터들을 나타내고, 하나의 비디오 클립에서 각 프레임의 무관련성 점수들은 각 프레임이 비디오 클립의 전체 프레임에 얼마나 멀리 떨어져 있는지를 나타내는 것을 특징으로 하는 자기 지도 샘플러를 포함하는 행동 인식 모델의 행동인식방법
8 8
제 5 항에 있어서, 상기 비디오 클립의 프레임 중 무관련성 프레임을 제거하여 남은 프레임 중 선택된 프레임은임계값 τ보다 큰 비관련성 점수를 갖는 프레임을 제거한 후 일정 간격으로 N개의 고정된 수의 프레임을 선택하는 과정 또는, 임계값 τ를 설정한 후, 비관련성 점수가 τ보다 작은 프레임들만을 선택하는 과정 중 어느 하나에 의해 선택된 프레임인 것을 특징으로 하는 자기 지도 샘플러를 포함하는 행동 인식 모델의 행동인식방법
9 9
제 5 항에 있어서, 상기 행동인식단계는상기 선택된 프레임을 입력으로 사용하여 조밀 예측 방법(dense prediction method)을 적용하여 비디오의 행동을 인식하는 것을 특징으로 하는 자기 지도 샘플러를 포함하는 행동 인식 모델의 행동인식방법
10 10
자기 지도 샘플러를 이용하는 영상 감시 시스템에 있어서,CCTV로부터 동영상을 수신하고, 실시간 객체 검출에 사용되는 객체 검출 모델을 이용하여 동영상 내 사람들을 검출하여 위치를 한정하는 객체 검출부;객체 추적에 사용되는 객체 추적 모델을 이용하여 검출된 사람 각각의 개별 ID를 인식하는 객체 추적부;제1항의 특징을 갖는 학습방법에 의해 학습되며, 인식된 ID별로 복수개의 프레임으로 구성되는 비디오 클립을 입력받아 비디오 클립 중 셔플링된 프레임을 제거하고, 나머지 프레임을 동작 인식 모델로 출력하는 자기 지도 샘플러; 및상기 자기 지도 샘플러로부터 수신된 나머지 프레임을 이용하여 각 사람의 행동을 인식하는 행동 인식 모델;을 포함하는 것을 특징으로 하는 자기 지도 샘플러를 이용하는 영상 감시 시스템
11 11
제 10 항에 있어서, 상기 자기 지도 샘플러는 다운샘플링된 비디오 클립을 수신하고, 다운샘플링된 비디오 클립의 전체 프레임의 각 프레임별로 무관련성 점수들을 예측하고, 상기 각 프레임에 대한 예측된 무관련성 점수에 기초하여 행동 무관련 프레임을 제거하는 과정을 수행하고, 상기 행동 인식 모델은 비디오 클립의 프레임 중 무관련성 프레임을 제거하여 남은 프레임 중 선택된 프레임들을 입력으로 받아 행동인식모델이 행동인식을 수행하는 것을 특징으로 하는 자기 지도 샘플러를 이용하는 영상 감시 시스템
12 12
삭제
13 13
자기 지도 샘플러를 이용하는 영상 감시 시스템의 동작방법에 있어서,객체 검출부가 CCTV로부터 동영상을 수신하고, 실시간 객체 검출에 사용되는 객체 검출 모델을 이용하여 동영상내 사람들을 검출하여 위치를 한정하는 객체검출단계;객체 추적부가 객체 추적에 사용되는 객체 추적 모델을 이용하여 검출된 사람 각각의 개별 ID를 인식하는 객체추적단계;제1항의 특징을 갖는 학습방법에 의해 학습된 자기 지도 샘플러가 인식된 ID별로 복수개의 프레임으로 구성되는 비디오 클립을 입력받아 비디오 클립 중 셔플링된 프레임을 제거하고, 나머지 프레임을 동작 인식 모델로 출력하는 프레임선택단계; 및행동 인식 모델이 자기 지도 샘플러로부터 수신된 나머지 프레임을 이용하여 각 사람의 행동을 인식하는 행동인식단계;를 포함하는 것을 특징으로 하는 자기 지도 샘플러를 이용하는 영상 감시 시스템의 동작방법
14 14
제 13 항에 있어서, 상기 자기 지도 샘플러는 다운샘플링된 비디오 클립을 수신하고, 다운샘플링된 비디오 클립의 전체 프레임의 각 프레임별로 무관련성 점수들을 예측하고, 상기 각 프레임에 대한 예측된 무관련성 점수에 기초하여 행동 무관련 프레임을 제거하는 과정을 수행하고, 상기 행동 인식 모델은 비디오 클립의 프레임 중 무관련성 프레임을 제거하여 남은 프레임 중 선택된 프레임들을 입력으로 받아 행동인식모델이 행동인식을 수행하는 것을 특징으로 하는 자기 지도 샘플러를 이용하는 영상 감시 시스템의 동작방법
지정국 정보가 없습니다
패밀리정보가 없습니다
순번, 연구부처, 주관기관, 연구사업, 연구과제의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 국가R&D 연구정보 정보 표입니다.
순번 연구부처 주관기관 연구사업 연구과제
1 과학기술정보통신부 한밭대학교 공공조달연계R&D실증·사업화지원 CCTV 등 공공서비스 영상에서의 개인정보 보호를 위한 실시간 객체 인식 및 추적기술 개발