맞춤기술찾기

이전대상기술

모바일 디바이스용 상호작용 관심영역 추정 시스템

  • 기술번호 : KST2023007583
  • 담당센터 : 대전기술혁신센터
  • 전화번호 : 042-610-2279
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 본 발명은 디바이스 주변의 복수의 객체들에 대한 센싱 데이터를 획득하도록 구성된 입력 모듈, 상기 센싱 데이터를 기반으로 정보들이 정합된 메쉬화된 특징점 맵을 생성하도록 구성된 정보 생성 모듈, 및 상기 메쉬화된 특징점 맵 상에 가상 이미지를 합성하여 상기 가상이미지와 상호작용하는 상호작용 관심영역을 추정하도록 구성된 상호작용 관심영역 추정 모듈을 포함하고, 상기 정보 생성 모듈은 상기 센싱 데이터를 수신하여 상기 복수의 객체들에 대한 특징점들을 추출하여 특징점 맵을 생성하도록 구성된 특징점 맵 생성 모듈, 상기 센싱 데이터를 수신하여 의미론적 분할을 수행하여 클래스별 분할 정보를 획득하고, 인스턴스 분할을 수행하여 객체별 분할 정보를 획득하며, 상기 클래스별 분할 정보 및 상기 객체별 분할 정보에 따른 객체별 물리적 속성 정보를 추출하도록 구성된 분할 모듈 및 상기 특징점 맵에 상기 클래스별 분할 정보, 상기 객체별 분할 정보 및 상기 객체별 물리적 속성 정보를 정합하고, 정합된 상기 클래스별 분할 정보 및 상기 객체별 분할 정보에 따라 상기 특징점 맵의 상기 객체들 각각을 메쉬화하도록 구성된 메쉬화 모듈을 포함하는 시스템을 제공한다.
Int. CL G06T 7/11 (2017.01.01) G06T 19/20 (2011.01.01) G06T 17/20 (2006.01.01) G06T 7/30 (2017.01.01) G06T 7/70 (2017.01.01) G06V 10/40 (2022.01.01) G06V 10/25 (2022.01.01)
CPC G06T 7/11(2013.01) G06T 19/20(2013.01) G06T 17/205(2013.01) G06T 7/30(2013.01) G06T 7/70(2013.01) G06V 10/40(2013.01) G06V 10/25(2013.01)
출원번호/일자 1020220026879 (2022.03.02)
출원인 한국전자통신연구원
등록번호/일자
공개번호/일자 10-2023-0129797 (2023.09.11) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 공개
심사진행상태 수리
심판사항
구분 국내출원/신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 N
심사청구항수 20

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 한국전자통신연구원 대한민국 대전광역시 유성구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 박상헌 대전광역시 유성구
2 정성욱 대전광역시 유성구
3 조현우 대전광역시 유성구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 특허법인 고려 대한민국 서울특별시 강남구 테헤란로 *길 ** *층(역삼동)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2022.03.02 수리 (Accepted) 1-1-2022-0231054-69
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
디바이스 주변의 복수의 객체들에 대한 센싱 데이터를 획득하도록 구성된 입력 모듈;상기 센싱 데이터를 기반으로 정보들이 정합된 메쉬화된 특징점 맵을 생성하도록 구성된 정보 생성 모듈; 및상기 메쉬화된 특징점 맵 상에 가상 이미지를 합성하여 상기 가상이미지와 상호작용하는 상호작용 관심영역을 추정하도록 구성된 상호작용 관심영역 추정 모듈을 포함하고,상기 정보 생성 모듈은:상기 센싱 데이터를 수신하여 상기 복수의 객체들에 대한 특징점들을 추출하여 특징점 맵을 생성하도록 구성된 특징점 맵 생성 모듈;상기 센싱 데이터를 수신하여 의미론적 분할을 수행하여 클래스별 분할 정보를 획득하고, 인스턴스 분할을 수행하여 객체별 분할 정보를 획득하며, 상기 클래스별 분할 정보 및 상기 객체별 분할 정보에 따른 객체별 물리적 속성 정보를 추출하도록 구성된 분할 모듈; 및상기 특징점 맵에 상기 클래스별 분할 정보, 상기 객체별 분할 정보 및 상기 객체별 물리적 속성 정보를 정합하고, 정합된 상기 클래스별 분할 정보 및 상기 객체별 분할 정보에 따라 상기 특징점 맵의 상기 객체들 각각을 메쉬화하도록 구성된 메쉬화 모듈을 포함하는 시스템
2 2
제1 항에 있어서,상기 특징점 생성 모듈은 추출된 상기 특징점들에 기초하여 디바이스 위치 정보를 획득하고,상기 메쉬화 모듈은 상기 디바이스 위치 정보를 상기 특징점 맵에 정합하는 시스템
3 3
제1 항에 있어서,상기 상호작용 관심영역은 상기 가상 이미지의 운동 궤적 상에서 상기 상호작용하는 상기 객체의 영역인 시스템
4 4
제3 항에 있어서,상기 상호작용 관심영역 추정 모듈은 상기 상호작용 관심영역 내의 상기 객체와 상기 가상 이미지 사이의 상호작용 연산을 수행하는 시스템
5 5
제4 항에 있어서,상기 상호작용 연산은 상기 특징점 맵에서 상기 상호작용 관심영역 외부의 객체들과 상기 가상 이미지 사이에서는 수행되지 않는 시스템
6 6
제1 항에 있어서,상기 센싱 데이터는 영상 데이터, depth 데이터 및 lidar 데이터 중 어느 하나를 포함하는 시스템
7 7
제1 항에 있어서,상기 센싱 데이터는 영상 데이터를 포함하고,상기 영상 데이터는 복수의 이미지 프레임들을 포함하며,상기 복수의 이미지 프레임들은 상기 디바이스의 위치 및 포즈에 따라 달라지는 시스템
8 8
제7 항에 있어서,상기 특징점 맵 생성 모듈은 상기 복수의 이미지 프레임들에 대한 상기 특징점들을 추출하여 상기 특징점 맵을 생성하는 시스템
9 9
제1 항에 있어서,상기 의미론적 분할은 상기 객체의 종류에 따라 픽셀 단위로 상기 종류에 대응하는 클래스에 분류하여 상기 클래스별 분할 정보를 획득하는 시스템
10 10
제9 항에 있어서,상기 인스턴스 분할은 상기 클래스에 포함된 복수의 객체들을 각각 분할하여 상기 객체별 분할 정보를 획득하는 시스템
11 11
디바이스의 주변 환경을 센싱하여 센싱 데이터를 획득하는 것, 상기 센싱 데이터는 복수의 객체들에 대한 데이터를 포함하고;상기 센싱 데이터에서 특징점을 추출하여 특징점 맵을 생성하는 것;상기 센싱 데이터에 의미론적 분할을 수행하여 클래스별 분할 정보를 획득하는 것;상기 센싱 데이터에 인스턴스 분할을 수행하여 객체별 분할 정보를 획득하는 것;상기 클래스별 분할 정보 및 상기 객체별 분할 정보에 따른 객체별 물리적 속성 정보를 추출하는 것;상기 특징점 맵에 상기 클래스별 분할 정보, 상기 객체별 분할 정보 및 상기 객체별 물리적 속성 정보를 정합하는 것;상기 특징점 맵에 정합된 상기 클래스별 분할 정보 및 상기 객체별 분할 정보에 따라 상기 특징점 맵의 상기 객체들 각각을 메쉬화하는 것; 및상기 메쉬화된 상기 특징점 맵 상에 가상 이미지를 합성하여 상기 가상 이미지와 상호작용하는 상호작용 관심영역을 추정하는 것을 포함하는 관심영역 추정 방법
12 12
제11 항에 있어서,상기 추출된 상기 특징점들에 기초하여 디바이스 위치 정보를 획득하는 것; 및상기 디바이스 위치 정보를 상기 특징점 맵에 정합하는 것을 더 포함하는 관심영역 추정 방법
13 13
제11 항에 있어서,상기 상호작용 관심영역은 상기 가상 이미지의 운동 궤적 상에서 상기 상호작용하는 상기 객체의 영역인 관심영역 추정 방법
14 14
제13 항에 있어서,상기 상호작용 관심영역 내의 상기 객체와 상기 가상 이미지 사이의 상호작용 연산을 수행하는 것을 더 포함하는 관심영역 추정 방법
15 15
제14 항에 있어서,상기 상호작용 연산은 상기 특징점 맵에서 상기 상호작용 관심영역 외부의 객체들과 상기 가상 이미지 사이에서는 수행되지 않는 관심영역 추정 방법
16 16
제11 항에 있어서,상기 센싱 데이터는 영상 데이터, depth 데이터 및 lidar 데이터 중 어느 하나를 포함하는 관심영역 추정 방법
17 17
제11 항에 있어서,상기 센싱 데이터는 영상 데이터를 포함하고,상기 영상 데이터는 복수의 이미지 프레임들을 포함하며,상기 복수의 이미지 프레임들은 상기 디바이스의 위치 및 포즈에 따라 달라지는 관심영역 추정 방법
18 18
제17 항에 있어서,상기 특징점 맵은 상기 복수의 이미지 프레임들에 대한 상기 특징점들을 추출하여 생성하는 관심영역 추정 방법
19 19
제11 항에 있어서,상기 의미론적 분할은 상기 객체의 종류에 따라 픽셀 단위로 상기 종류에 대응하는 클래스에 분류하여 상기 클래스별 분할 정보를 획득하는 관심영역 추정 방법
20 20
제19 항에 있어서,상기 인스턴스 분할은 상기 클래스에 포함된 복수의 객체들을 각각 분할하여 상기 객체별 분할 정보를 획득하는 관심영역 추정 방법
지정국 정보가 없습니다
패밀리정보가 없습니다
순번, 연구부처, 주관기관, 연구사업, 연구과제의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 국가R&D 연구정보 정보 표입니다.
순번 연구부처 주관기관 연구사업 연구과제
1 과학기술정보통신부 한국전자통신연구원 실감콘텐츠핵심기술개발(R&D) 실·가상 환경 해석 기반 적응형 인터랙션 기술 개발