맞춤기술찾기

이전대상기술

영상의 전역 문맥 정보를 활용하는 딥러닝 기반 물체 검출 방법 및 시스템

  • 기술번호 : KST2019031130
  • 담당센터 : 서울서부기술혁신센터
  • 전화번호 : 02-6124-6930
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 일 실시예에 따른 객체 검출 방법은, 영상 정보를 제1 딥 뉴럴 네트워크에 통과시킴에 따라 특징맵을 획득하는 단계; 상기 획득된 특징맵을 제2 딥 뉴럴 네트워크 및 제3 딥 뉴럴 네트워크에 각각 통과시키는 단계; 상기 제2 딥 뉴럴 네트워크 및 상기 제3 딥 뉴럴 네트워크에 통과시킴에 따라 획득된 각각의 특징맵을 융합 네트워크를 통하여 융합하는 단계; 및 상기 융합된 특징맵에 기반하여 상기 영상 정보로부터 객체를 검출하는 단계를 포함할 수 있다.
Int. CL G06N 3/04 (2006.01.01) G06N 3/08 (2006.01.01) G06T 7/20 (2017.01.01)
CPC G06N 3/0454(2013.01) G06N 3/0454(2013.01) G06N 3/0454(2013.01)
출원번호/일자 1020180055783 (2018.05.16)
출원인 한양대학교 산학협력단
등록번호/일자
공개번호/일자 10-2019-0131206 (2019.11.26) 문서열기
공고번호/일자 문서열기
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 등록
심사진행상태 수리
심판사항
구분 신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2018.05.16)
심사청구항수 12

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 한양대학교 산학협력단 대한민국 서울특별시 성동구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 최준원 서울특별시 성동구
2 유진혁 서울특별시 성동구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 양성보 대한민국 서울특별시 강남구 선릉로***길 ** (논현동) 삼성빌딩 *층(피앤티특허법률사무소)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
1 한양대학교 산학협력단 서울특별시 성동구
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2018.05.16 수리 (Accepted) 1-1-2018-0480003-97
2 출원인정보변경(경정)신고서
Notification of change of applicant's information
2019.08.05 수리 (Accepted) 4-1-2019-5155816-75
3 출원인정보변경(경정)신고서
Notification of change of applicant's information
2019.08.06 수리 (Accepted) 4-1-2019-5156285-09
4 [우선심사신청]심사청구(우선심사신청)서
[Request for Preferential Examination] Request for Examination (Request for Preferential Examination)
2019.09.06 수리 (Accepted) 1-1-2019-0920517-86
5 [출원서 등 보정]보정서
[Amendment to Patent Application, etc.] Amendment
2019.09.06 수리 (Accepted) 1-1-2019-0919923-85
6 보정요구서
Request for Amendment
2019.09.10 발송처리완료 (Completion of Transmission) 1-5-2019-0147587-88
7 [출원서 등 보정]보정서
[Amendment to Patent Application, etc.] Amendment
2019.09.11 수리 (Accepted) 1-1-2019-0935567-09
8 선행기술조사의뢰서
Request for Prior Art Search
2019.09.25 수리 (Accepted) 9-1-9999-9999999-89
9 선행기술조사보고서
Report of Prior Art Search
2019.10.11 수리 (Accepted) 9-1-2019-0046679-59
10 의견제출통지서
Notification of reason for refusal
2019.11.13 발송처리완료 (Completion of Transmission) 9-5-2019-0822504-63
11 [거절이유 등 통지에 따른 의견]의견(답변, 소명)서
[Opinion according to the Notification of Reasons for Refusal] Written Opinion(Written Reply, Written Substantiation)
2019.12.31 수리 (Accepted) 1-1-2019-1360430-56
12 [명세서등 보정]보정서
[Amendment to Description, etc.] Amendment
2019.12.31 보정승인간주 (Regarded as an acceptance of amendment) 1-1-2019-1360431-02
13 등록결정서
Decision to grant
2020.03.03 발송처리완료 (Completion of Transmission) 9-5-2020-0166204-85
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
객체 검출 시스템에 의해 수행되는 객체 검출 방법에 있어서,상기 객체 검출 시스템에 있어서, 영상 정보를 제1 딥 뉴럴 네트워크에 통과시킴에 따라 특징맵을 획득하는 단계;상기 객체 검출 시스템에 있어서, 상기 획득된 특징맵을 제2 딥 뉴럴 네트워크 및 제3 딥 뉴럴 네트워크에 각각 통과시키는 단계;상기 객체 검출 시스템에 있어서, 상기 제2 딥 뉴럴 네트워크 및 상기 제3 딥 뉴럴 네트워크에 통과시킴에 따라 획득된 각각의 특징맵을 융합 네트워크를 통하여 융합하는 단계; 및상기 객체 검출 시스템에 있어서, 상기 융합된 특징맵에 기반하여 상기 영상 정보로부터 객체를 검출하는 단계를 포함하고,상기 제2 딥 뉴럴 네트워크 및 상기 제3 딥 뉴럴 네트워크에 통과시킴에 따라 획득된 각각의 특징맵은, 지역적 정보의 특징맵 및 전역적 정보의 특징맵이고,상기 객체 검출 시스템에 있어서, 상기 제2 딥 뉴럴 네트워크 및 상기 제3 딥 뉴럴 네트워크에 통과시킴에 따라 획득된 각각의 특징값을 융합 네트워크를 통하여 융합하는 단계는,상기 지역적 정보의 특징맵을 위치에 따라 각각 컨볼루션 필터에 통과시킴에 따라 객체의 종류와 위치를 포함하는 객체 정보 값을 획득하고, 상기 전역적 정보의 특징맵의 특징값들을 펼친 후 임베딩 벡터와 연결하여 완전 연결 층에 통과시킴에 따라 객체의 종류와 위치를 포함하는 객체 정보 값을 획득하고, 상기 지역적 정보에 대한 객체 정보 값과 상기 전역적 정보에 대한 객체 정보 값을 결합하는 단계를 포함하는 객체 검출 방법
2 2
제1항에 있어서, 상기 객체 검출 시스템에 있어서, 상기 획득된 특징맵을 제2 딥 뉴럴 네트워크 및 제3 딥 뉴럴 네트워크에 통과시키는 단계는,상기 획득된 특징맵을 지역적 정보를 표현하기 위한 특징맵을 획득하기 위한 제2 딥 뉴럴 네트워크 및 전역적 정보를 표현하는 특징맵을 획득하기 위한 제3 딥 뉴럴 네트워크 각각에 통과시키는 단계를 포함하는 객체 검출 방법
3 3
제1항에 있어서, 상기 제2 딥 뉴럴 네트워크는, 지역적 정보를 표현하기 위한 특징값을 획득하기 위하여 6계층의 CNN 구조로 구성되고, 상기 CNN 구조에서 6계층의 특징맵을 추출하여 객체를 검출하고,상기 제 3 딥 뉴럴 네트워크는, 전역적 정보를 표현하기 위한 특징맵을 획득하기 위하여 5계층의 CNN구조로 구성되고, 상기 CNN구조에서 5계층 중 하나의 계층의 특징맵을 활용하여 객체를 검출하는, 객체 검출 방법
4 4
삭제
5 5
객체 검출 시스템에 의해 수행되는 객체 검출 방법에 있어서, 상기 객체 검출 시스템에 있어서, 영상 정보를 제1 딥 뉴럴 네트워크에 통과시킴에 따라 특징맵을 획득하는 단계;상기 객체 검출 시스템에 있어서, 상기 획득된 특징맵을 제2 딥 뉴럴 네트워크 및 제3 딥 뉴럴 네트워크에 각각 통과시키는 단계;상기 객체 검출 시스템에 있어서, 상기 제2 딥 뉴럴 네트워크 및 상기 제3 딥 뉴럴 네트워크에 통과시킴에 따라 획득된 각각의 특징맵을 융합 네트워크를 통하여 융합하는 단계; 및상기 객체 검출 시스템에 있어서, 상기 융합된 특징맵에 기반하여 상기 영상 정보로부터 객체를 검출하는 단계를 포함하고,상기 제2 딥 뉴럴 네트워크 및 상기 제3 딥 뉴럴 네트워크에 통과시킴에 따라 획득된 각각의 특징맵은, 지역적 정보의 특징맵 및 전역적 정보의 특징맵이고,상기 객체 검출 시스템에 있어서, 상기 제2 딥 뉴럴 네트워크 및 상기 제3 딥 뉴럴 네트워크에 통과시킴에 따라 획득된 각각의 특징맵을 융합 네트워크를 통하여 융합하는 단계는,상기 객체 검출 시스템에 있어서, 상기 전역적 정보의 특징맵에서 상기 지역적 정보의 특징맵의 위치에 해당하는 특징값들을 0으로 만드는 행렬을 곱하는 마스킹 기법을 이용하여 상기 지역적 정보의 특징맵으로 상기 객체에 대한 정보를 이용하고, 상기 전역적 정보의 특징맵으로 상기 객체 이외의 환경 정보를 이용하는 단계 를 포함하는 객체 검출 방법
6 6
제5항에 있어서, 상기 객체 검출 시스템에 있어서, 상기 제2 딥 뉴럴 네트워크 및 상기 제3 딥 뉴럴 네트워크에 통과시킴에 따라 획득된 각각의 특징값을 융합 네트워크를 통하여 융합하는 단계는,상기 지역적 정보의 특징맵을 위치에 따라 각각 컨볼루션 필터에 통과시킴에 따라 객체의 종류와 위치를 포함하는 객체 정보 값을 획득하고, 상기 마스킹 기법이 적용된 전역적 정보의 특징맵의 특징값들을 펼친 후 완전 연결 층에 통과시킴에 따라 획득된 값과 상기 지역적 정보에 대한 객체 정보 값을 결합하는 단계를 포함하는 객체 검출 방법
7 7
제1항 또는 제5항 중 어느 한 항에 있어서, 상기 제2 딥 뉴럴 네트워크 및 상기 제3 딥 뉴럴 네트워크에 통과시킴에 따라 획득된 각각의 특징맵은, 지역적 정보의 특징맵 및 전역적 정보의 특징맵이고,상기 객체 검출 시스템에 있어서, 상기 융합된 특징맵에 기반하여 상기 영상 정보로부터 객체를 검출하는 단계는,상기 지역적 정보에 대한 객체 정보 값과 상기 전역적 정보에 대한 객체 정보 값을 결합하여 완전 연결 층에 통과시켜 상기 영상 정보로부터 상기 객체를 검출하는 단계 를 포함하는 객체 검출 방법
8 8
객체 검출 시스템에 있어서,영상 정보를 제1 딥 뉴럴 네트워크에 통과시킴에 따라 특징맵을 획득하는 특징맵 획득부;상기 획득된 특징맵을 제2 딥 뉴럴 네트워크 및 제3 딥 뉴럴 네트워크에 각각 통과시키는 입력부;상기 제2 딥 뉴럴 네트워크 및 상기 제3 딥 뉴럴 네트워크에 통과시킴에 따라 획득된 각각의 특징맵을 융합 네트워크를 통하여 융합하는 융합부; 및상기 융합된 특징맵에 기반하여 상기 영상 정보로부터 객체를 검출하는 검출부를 포함하고,상기 제2 딥 뉴럴 네트워크 및 상기 제3 딥 뉴럴 네트워크에 통과시킴에 따라 획득된 각각의 특징맵은, 지역적 정보의 특징맵 및 전역적 정보의 특징맵이고,상기 융합부는, 상기 지역적 정보의 특징맵을 위치에 따라 각각 컨볼루션 필터에 통과시킴에 따라 객체의 종류와 위치를 포함하는 객체 정보 값을 획득하고, 상기 전역적 정보의 특징맵의 특징값들을 펼친 후 임베딩 벡터와 연결하여 완전 연결 층에 통과시킴에 따라 객체의 종류와 위치를 포함하는 객체 정보 값을 획득하고, 상기 지역적 정보에 대한 객체 정보 값과 상기 전역적 정보에 대한 객체 정보 값을 결합하는객체 검출 시스템
9 9
제8항에 있어서, 상기 입력부는,상기 획득된 특징맵을 지역적 정보를 표현하기 위한 특징맵을 획득하기 위한 제2 딥 뉴럴 네트워크 및 전역적 정보를 표현하는 특징맵을 획득하기 위한 제3 딥 뉴럴 네트워크 각각에 통과시키는 것을 특징으로 하는 객체 검출 시스템
10 10
제8항에 있어서, 상기 제2 딥 뉴럴 네트워크는, 지역적 정보를 표현하기 위한 특징값을 획득하기 위하여 6계층의 CNN 구조로 구성되고, 상기 CNN 구조에서 6계층의 특징맵을 추출하여 객체를 검출하고,상기 제 3 딥 뉴럴 네트워크는, 전역적 정보를 표현하기 위한 특징맵을 획득하기 위하여 5계층의 CNN구조로 구성되고, 상기 CNN구조에서 5계층 중 하나의 계층의 특징맵을 활용하여 객체를 검출하는 것을 특징으로 하는 객체 검출 시스템
11 11
삭제
12 12
객체 검출 시스템에 있어서,영상 정보를 제1 딥 뉴럴 네트워크에 통과시킴에 따라 특징맵을 획득하는 특징맵 획득부;상기 획득된 특징맵을 제2 딥 뉴럴 네트워크 및 제3 딥 뉴럴 네트워크에 각각 통과시키는 입력부;상기 제2 딥 뉴럴 네트워크 및 상기 제3 딥 뉴럴 네트워크에 통과시킴에 따라 획득된 각각의 특징맵을 융합 네트워크를 통하여 융합하는 융합부; 및상기 융합된 특징맵에 기반하여 상기 영상 정보로부터 객체를 검출하는 검출부를 포함하고,상기 제2 딥 뉴럴 네트워크 및 상기 제3 딥 뉴럴 네트워크에 통과시킴에 따라 획득된 각각의 특징맵은, 지역적 정보의 특징맵 및 전역적 정보의 특징맵이고,상기 융합부는, 상기 전역적 정보의 특징맵에서 상기 지역적 정보의 특징맵의 위치에 해당하는 특징값들을 0으로 만드는 행렬을 곱하는 마스킹 기법을 이용하여 상기 지역적 정보의 특징맵으로 상기 객체에 대한 정보를 이용하고, 상기 전역적 정보의 특징맵으로 상기 객체 이외의 환경 정보를 이용하는것을 특징으로 하는 객체 검출 시스템
13 13
제12항에 있어서, 상기 융합부는, 상기 지역적 정보의 특징맵을 위치에 따라 각각 컨볼루션 필터에 통과시킴에 따라 객체의 종류와 위치를 포함하는 객체 정보 값을 획득하고, 상기 마스킹 기법이 적용된 전역적 정보의 특징맵의 특징값들을 펼친 후 완전 연결 층에 통과시킴에 따라 획득된 값과 상기 지역적 정보에 대한 객체 정보 값을 결합하는 것을 특징으로 하는 객체 검출 시스템
14 14
제8항 또는 제12항 중 어느 한 항에 있어서, 상기 제2 딥 뉴럴 네트워크 및 상기 제3 딥 뉴럴 네트워크에 통과시킴에 따라 획득된 각각의 특징맵은, 지역적 정보의 특징맵 및 전역적 정보의 특징맵이고,상기 검출부는, 상기 지역적 정보에 대한 객체 정보 값과 상기 전역적 정보에 대한 객체 정보 값을 결합하여 완전 연결 층에 통과시켜 상기 영상 정보로부터 상기 객체를 검출하는 것을 특징으로 하는 객체 검출 시스템
지정국 정보가 없습니다
패밀리정보가 없습니다
순번, 연구부처, 주관기관, 연구사업, 연구과제의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 국가R&D 연구정보 정보 표입니다.
순번 연구부처 주관기관 연구사업 연구과제
1 산업통상자원부 한양대학교 산학협력단 산업기술혁신사업 / 산업핵심기술개발사업 / 자동차산업핵심기술개발사업-그린카(RCMS) Cut-in시 차량간 상호작용이 고려된 딥러닝 기반 미래 상황 예측 및 위험도 판단 기술 개발