맞춤기술찾기

이전대상기술

영상 내의 객체 인식 방법 및 장치

  • 기술번호 : KST2022008452
  • 담당센터 : 대전기술혁신센터
  • 전화번호 : 042-610-2279
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 영상 내에 포함되는 객체의 작은 크기로 인하여 인식이 곤란해지는 문제를 감소시킬 수 있고, 카메라를 신속하게 줌인 구동할 수 있으며, 이에 따라 영상내 객체의 분류 작업의 정확도를 크게 향상시킬 수 있는 객체 인식 방법 및 장치를 제공한다. 객체 인식 방법은 입력 영상을 받아들이는 단계; 상기 입력 영상으로부터 객체 예측을 수행하여 제1 객체 클래스(c), 제1 신뢰도(p), 및 바운딩 박스(b)를 획득하는 단계; 바운딩 박스 내부의 입력 영상 부분을 제1 임계치를 기준으로 이진화한 제1 이진화 영상에서 제1 객체 영역 비율을 계산하고, 바운딩 박스 내부의 입력 영상 부분을 제2 임계치를 기준으로 이진화한 제2 이진화 영상에서 제2 객체 영역 비율을 계산하는 단계; 제1 및 제2 객체 영역 비율 사이의 차이를 토대로 입력 영상이 포커싱되어 있는지 판단하는 단계; 입력 영상이 선명하게 포커싱되어 있다고 판단되는 경우, 입력 영상을 크롭하고 크롭된 부분을 확대하여 확대된 크롭 영상을 획득하고, 확대된 크롭 영상으로부터 객체 예측을 수행하여 제2 객체 클래스(cm) 및 제2 신뢰도(pm)를 획득하는 단계; 및 제1 신뢰도(p) 및 상기 제2 신뢰도(pm)를 토대로 최종 객체 클래스를 결정하는 단계;를 포함한다.
Int. CL G06V 10/10 (2022.01.01) G06V 10/28 (2022.01.01) G06T 5/00 (2019.01.01) G06T 3/40 (2006.01.01)
CPC
출원번호/일자 1020210175641 (2021.12.09)
출원인 한국전자통신연구원
등록번호/일자
공개번호/일자 10-2022-0083613 (2022.06.20) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보 대한민국  |   1020200173744   |   2020.12.11
법적상태 공개
심사진행상태 수리
심판사항
구분 국내출원/신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 N
심사청구항수 12

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 한국전자통신연구원 대한민국 대전광역시 유성구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 여건민 대전광역시 유성구
2 김영일 대전광역시 유성구
3 박성희 대전광역시 유성구
4 정운철 대전광역시 유성구
5 허태욱 대전광역시 유성구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 특허법인이상 대한민국 서울특별시 서초구 바우뫼로 ***(양재동, 우도빌딩 *층)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2021.12.09 수리 (Accepted) 1-1-2021-1428568-78
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
영상 내의 객체를 인식하는 방법으로서,입력 영상을 받아들이는 단계;상기 입력 영상으로부터 객체 예측을 수행하여 제1 객체 클래스(c), 제1 신뢰도(p), 및 바운딩 박스(b)를 획득하는 단계;상기 바운딩 박스 내부의 입력 영상 부분을 제1 임계치를 기준으로 이진화한 제1 이진화 영상에서 제1 객체 영역 비율을 계산하고, 상기 바운딩 박스 내부의 입력 영상 부분을 제2 임계치를 기준으로 이진화한 제2 이진화 영상에서 제2 객체 영역 비율을 계산하는 단계;상기 제1 및 제2 객체 영역 비율 사이의 차이를 토대로 상기 입력 영상이 포커싱되어 있는지 판단하는 단계;상기 입력 영상이 선명하게 포커싱되어 있다고 판단되는 경우, 상기 입력 영상을 크롭하고 크롭된 부분을 확대하여 확대된 크롭 영상을 획득하고, 상기 확대된 크롭 영상으로부터 객체 예측을 수행하여 제2 객체 클래스(cm) 및 제2 신뢰도(pm)를 획득하는 단계; 및상기 제1 신뢰도(p) 및 상기 제2 신뢰도(pm)를 토대로 최종 객체 클래스를 결정하는 단계;를 포함하는 객체 인식 방법
2 2
청구항 1에 있어서, 상기 입력 영상이 포커싱되어 있는지 판단하는 단계가상기 제1 및 제2 객체 영역 비율 사이의 차이가 소정의 기준값보다 큰지 여부를 판단하는 단계;상기 차이가 상기 기준값보다 크면 상기 입력 영상이 포커싱이 되어 있지 않다고 판단하는 단계; 및상기 차이가 상기 기준값보다 크지 않으면 상기 입력 영상이 포커싱이 되어 있다고 판단하는 단계;를 포함하는 객체 인식 방법
3 3
청구항 2에 있어서, 상기 입력 영상이 카메라로부터 수신되며,상기 입력 영상이 포커싱되어 있는지 판단하는 단계가상기 입력 영상이 포커싱이 되어 있지 않다고 판단하는 경우 상기 카메라에 포커스 조정을 위한 제어신호를 공급하는 단계;를 더 포함하는 객체 인식 방법
4 4
청구항 3에 있어서, 상기 제어신호가 줌인 제어명령 또는 오토포커스 명령을 포함하는 객체 인식 방법
5 5
청구항 1에 있어서, 상기 최종 객체 클래스를 결정하는 단계가상기 제1 신뢰도(p) 및 상기 제2 신뢰도(pm)에 제1 및 제2 가중치(w1, w2)를 각각 부여하고 비교하는 단계;를 더 포함하여, 비교 결과에 따라 상기 최종 객체 클래스를 결정하는 객체 인식 방법
6 6
청구항 5에 있어서, 상기 최종 객체 클래스를 결정하는 단계가상기 제2 신뢰도(pm)에 상기 제2 가중치(w2)를 곱한 값이 상기 제1 신뢰도(p)에 상기 제1 가중치(w1)를 곱한 값보다 크다면, 상기 제2 객체 클래스(cm)를 상기 최종 객체 클래스를 결정하는 단계; 및상기 제2 신뢰도(pm)에 상기 제2 가중치(w2)를 곱한 값이 상기 제1 신뢰도(p)에 상기 제1 가중치(w1)를 곱한 값보다 크지 않다면, 상기 제1 객체 클래스(c)를 상기 최종 객체 클래스를 결정하는 단계;를 포함하는 객체 인식 방법
7 7
영상 내의 객체를 인식하는 장치로서,프로그램 명령들을 저장하는 메모리와; 상기 메모리에 접속되고 상기 메모리에 저장된 상기 프로그램 명령들을 실행하는 프로세서;를 구비하며,상기 프로그램 명령들은 상기 프로세서에 의해 실행될 때 상기 프로세서로 하여금:입력 영상을 받아들이고;상기 입력 영상으로부터 객체 예측을 수행하여 제1 객체 클래스(c), 제1 신뢰도(p), 및 바운딩 박스(b)를 획득하고;상기 바운딩 박스 내부의 입력 영상 부분을 제1 임계치를 기준으로 이진화한 제1 이진화 영상에서 제1 객체 영역 비율을 계산하고, 상기 바운딩 박스 내부의 입력 영상 부분을 제2 임계치를 기준으로 이진화한 제2 이진화 영상에서 제2 객체 영역 비율을 계산하며;상기 제1 및 제2 객체 영역 비율 사이의 차이를 토대로 상기 입력 영상이 포커싱되어 있는지 판단하고;상기 입력 영상이 선명하게 포커싱되어 있다고 판단되는 경우, 상기 입력 영상을 크롭하고 크롭된 부분을 확대하여 확대된 크롭 영상을 획득하고, 상기 확대된 크롭 영상으로부터 객체 예측을 수행하여 제2 객체 클래스(cm) 및 제2 신뢰도(pm)를 획득하고;상기 제1 신뢰도(p) 및 상기 제2 신뢰도(pm)를 토대로 최종 객체 클래스를 결정하는 동작을 수행하게 하는 객체 인식 장치
8 8
청구항 7에 있어서, 상기 프로세서로 하여금 상기 입력 영상이 포커싱되어 있는지 판단하게 하는 프로그램 명령들이 상기 프로세서로 하여금:상기 제1 및 제2 객체 영역 비율 사이의 차이가 소정의 기준값보다 큰지 여부를 판단하고;상기 차이가 상기 기준값보다 크면 상기 입력 영상이 포커싱이 되어 있지 않다고 판단하고; 및상기 차이가 상기 기준값보다 크지 않으면 상기 입력 영상이 포커싱이 되어 있다고 판단하는 동작을 수행하게 하는 객체 인식 장치
9 9
청구항 8에 있어서, 상기 객체 인식 장치가 카메라에 연동되어 있어서 상기 입력 영상이 상기 카메라로부터 수신되며,상기 프로세서로 하여금 상기 입력 영상이 포커싱되어 있는지 판단하게 하는 프로그램 명령들이 상기 프로세서로 하여금:상기 입력 영상이 포커싱이 되어 있지 않다고 판단하는 경우 상기 카메라에 포커스 조정을 위한 제어신호를 공급하는 동작을 수행하게 하는 객체 인식 장치
10 10
청구항 9에 있어서, 상기 제어신호가 줌인 제어명령 또는 오토포커스 명령을 포함하는 객체 인식 장치
11 11
청구항 7에 있어서, 상기 프로세서로 하여금 상기 최종 객체 클래스를 결정하게 하는 프로그램 명령들이 상기 프로세서로 하여금:상기 제1 신뢰도(p) 및 상기 제2 신뢰도(pm)에 제1 및 제2 가중치(w1, w2)를 각각 부여하고 비교하고, 비교 결과에 따라 상기 최종 객체 클래스를 결정하게 하는 동작을 수행하게 하는 객체 인식 장치
12 12
청구항 11에 있어서, 상기 프로세서로 하여금 상기 최종 객체 클래스를 결정하게 하는 프로그램 명령들이 상기 프로세서로 하여금:상기 제2 신뢰도(pm)에 상기 제2 가중치(w2)를 곱한 값이 상기 제1 신뢰도(p)에 상기 제1 가중치(w1)를 곱한 값보다 크다면, 상기 제2 객체 클래스(cm)를 상기 최종 객체 클래스를 결정하고;상기 제2 신뢰도(pm)에 상기 제2 가중치(w2)를 곱한 값이 상기 제1 신뢰도(p)에 상기 제1 가중치(w1)를 곱한 값보다 크지 않다면, 상기 제1 객체 클래스(c)를 상기 최종 객체 클래스를 결정하는 동작을 수행하게 하는 객체 인식 장치
지정국 정보가 없습니다
패밀리정보가 없습니다
순번, 연구부처, 주관기관, 연구사업, 연구과제의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 국가R&D 연구정보 정보 표입니다.
순번 연구부처 주관기관 연구사업 연구과제
1 방위사업청 한국전자통신연구원 민군겸용기술개발사업 소음 및 영상신호 결합기반 무인기 검출 기술 개발