맞춤기술찾기

이전대상기술

다중 교통 표지를 사용한 센서 캘리브레이션 장치 및 방법

  • 기술번호 : KST2024000449
  • 담당센터 : 대전기술혁신센터
  • 전화번호 : 042-610-2279
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 본 실시예들은 도로를 이동 중인 자율 주행 차량 또는 지상 이동 로봇에서 주변 물체 인식에 필수적인 라이다 센서 및 영상 센서의 정밀한 캘리브레이션을 교통 표지판을 사용하여 추정 및 업데이트하며, 별도의 캘리브레이션 보드를 사용할 필요 없고 주행 중에 계산 가능한 방법으로 손쉽게 정밀한 센서 융합 결과를 확인하고, 초기 센서 위치 데이터 없이 초기값을 추정하고 캘리브레이션 값을 업데이트할 수 있는 센서 캘리브레이션 장치 및 방법을 제공한다.
Int. CL G06T 7/80 (2017.01.01) G01S 17/894 (2020.01.01) G06T 7/70 (2017.01.01) G06T 7/11 (2017.01.01) G06T 3/40 (2006.01.01) G06T 7/13 (2017.01.01)
CPC G06T 7/80(2013.01) G01S 17/894(2013.01) G06T 7/70(2013.01) G06T 7/11(2013.01) G06T 3/40(2013.01) G06T 7/13(2013.01) G06T 2207/10028(2013.01)
출원번호/일자 1020220073499 (2022.06.16)
출원인 엘아이지넥스원 주식회사, 한국과학기술원
등록번호/일자
공개번호/일자 10-2023-0172834 (2023.12.26) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 공개
심사진행상태 수리
심판사항
구분 국내출원/신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2022.06.16)
심사청구항수 13

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 엘아이지넥스원 주식회사 대한민국 경기도 용인시 기흥구
2 한국과학기술원 대한민국 대전광역시 유성구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 명현 대전광역시 유성구
2 송원호 대전광역시 유성구
3 성창기 대전광역시 유성구
4 정의곤 대전광역시 유성구
5 오민호 대전광역시 유성구
6 허수민 대전광역시 유성구
7 박정희 경기도 성남시 분당구
8 이장우 경기도 성남시 분당구
9 김재경 경기도 성남시 분당구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 특허법인우인 대한민국 서울특별시 강남구 역삼로 ***, *층(역삼동, 중평빌딩)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2022.06.16 수리 (Accepted) 1-1-2022-0629753-33
2 특허고객번호 정보변경(경정)신고서·정정신고서
2023.01.31 수리 (Accepted) 4-1-2023-5023571-05
3 특허고객번호 정보변경(경정)신고서·정정신고서
2023.05.04 수리 (Accepted) 4-1-2023-5110236-33
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
센서 캘리브레이션 방법에 있어서,영상 센서를 통해 제1 교통 표지를 촬영하여 2차원 이미지를 획득하는 단계;라이다 센서를 통해 상기 제1 교통 표지에 무선 신호를 송수신하여 3차원 포인트 클라우드를 획득하는 단계;상기 2차원 이미지로부터 교통 표지 추출 모델을 이용하여 교통 표지 영역을 추출하는 단계;상기 3차원 포인트 클라우드로부터 상기 3차원 교통 표지 데이터를 인식하고 2차원 교통 표지 데이터로 변환하는 단계;상기 교통 표지 영역에서 추출한 제1 코너 데이터, 상기 2차원 교통 표지 데이터에서 추출한 제2 코너 데이터, 상기 제2 코너 데이터를 3차원 공간에 투영한 제3 코너 데이터, 상기 제2 코너 데이터를 2차원 평면에 투영한 제4 코너 데이터를 이용하여 상기 라이다 센서 기반한 상기 영상 센서의 교정값을 추정하는 단계를 포함하는 센서 캘리브레이션 방법
2 2
제1항에 있어서,상기 교통 표지 영역을 추출하는 단계는,상기 교통 표지 추출 모델로 네트워크의 최종 출력단에서 경계박스 위치 찾기와 클래스 분류가 동시에 이뤄지는 모델을 구축하고,실시간 획득된 상기 2차원 이미지의 사이즈를 조정하여 상기 교통 표지 추출 모델에 입력하여 특징을 추출한 후 박스 형태의 후보 영역을 추출하고,상기 박스 형태의 후보 영역에서 에지 감지 및 색상 임계치를 이용하여 상기 교통 표지 영역을 추출하는 것을 특징으로 하는 센서 캘리브레이션 방법
3 3
제1항에 있어서,상기 2차원 교통 표지 데이터로 변환하는 단계는,상기 라이더 센서를 중심으로 하는 전역 좌표계에서 상기 3차원 포인트 클라우드를 기준 임계치까지 축적하고,상기 축적된 3차원 포인트 클라우드를 기준 복셀 그리드에 따라 샘플링하여 복셀화를 수행하고,상기 복셀화된 3차원 포인트 클라우드를 기준 세기에 따라 필터링하고,상기 필터링된 3차원 포인트 클라우드를 기준 근접 거리에 따라 클러스터링하고,상기 클러스터링된 3차원 포인트 클라우드에 무작위 샘플 데이터의 최대 지지를 받는 모델을 선택하는 영상 처리 방식 및 평면 투영 방식을 적용하여 2차원 평면에 피팅하는 것을 특징으로 하는 센서 캘리브레이션 방법
4 4
제1항에 있어서,상기 라이다 센서 기반한 상기 영상 센서의 교정값을 추정하는 단계는,상기 제1 코너 데이터에 따른 모서리의 기울기 및 상기 제3 코너 데이터에 따른 모서리의 기울기를 비교하여 상기 3차원 공간에서 상기 제1 교통 표지에 대한 제1 법선 벡터를 산출하고,상기 제1 교통 표지에 대한 상기 제1 법선 벡터 및 제2 교통 표지에 대한 제2 법선 벡터를 비교하여 상기 영상 센서의 회전 교정값을 추정하는 것을 특징으로 하는 센서 캘리브레이션 방법
5 5
제1항에 있어서,상기 라이다 센서 기반한 상기 영상 센서의 교정값을 추정하는 단계는,상기 제1 코너 데이터 및 상기 제4 코너 데이터를 비교하여 상기 제1 교통 표지에 대한 상기 영상 센서의 제1 위치 데이터를 산출하고,상기 제1 교통 표지에 대한 상기 영상 센서의 제1 위치 데이터 및 제2 교통 표지에 대한 상기 영상 센서의 제2 위치 데이터를 비교하여 상기 영상 센서의 위치 교정값을 추정하는 것을 특징으로 하는 센서 캘리브레이션 방법
6 6
제1항에 있어서,상기 라이다 센서 기반한 상기 영상 센서의 교정값을 추정하는 단계 이후에상기 영상 센서 및 상기 라이다 센서가 제3 교통 표지를 검출하면, 상기 제1 교통 표지 및 제2 교통 표지를 기반으로 추정한 상기 영상 센서의 교정값을 상기 제2 교통 표지 및 상기 제3 교통 표지를 기반으로 다시 추정하여 상기 교정값을 업데이트하는 단계를 포함하는 것을 특징으로 하는 센서 캘리브레이션 방법
7 7
프로세서를 포함하는 센서 캘리브레이션 장치에 있어서,상기 프로세서는,영상 센서를 통해 제1 교통 표지를 촬영하여 획득한 2차원 이미지를 수신하고,라이다 센서를 통해 상기 제1 교통 표지에 무선 신호를 송수신하여 획득한 3차원 포인트 클라우드를 수신하고,상기 2차원 이미지로부터 교통 표지 추출 모델을 이용하여 교통 표지 영역을 추출하고,상기 3차원 포인트 클라우드로부터 상기 3차원 교통 표지 데이터를 인식하고 2차원 교통 표지 데이터로 변환하고,상기 교통 표지 영역에서 추출한 제1 코너 데이터, 상기 2차원 교통 표지 데이터에서 추출한 제2 코너 데이터, 상기 제2 코너 데이터를 3차원 공간에 투영한 제3 코너 데이터, 상기 제2 코너 데이터를 2차원 평면에 투영한 제4 코너 데이터를 이용하여 상기 라이다 센서 기반한 상기 영상 센서의 교정값을 추정하는 것을 특징으로 하는 센서 캘리브레이션 장치
8 8
제7항에 있어서,상기 프로세서는,상기 교통 표지 추출 모델로 네트워크의 최종 출력단에서 경계박스 위치 찾기와 클래스 분류가 동시에 이뤄지는 모델을 구축하고,실시간 획득된 상기 2차원 이미지의 사이즈를 조정하여 상기 교통 표지 추출 모델에 입력하여 특징을 추출한 후 박스 형태의 후보을 추출하고,상기 박스 형태의 후보 영역에서 에지 감지 및 색상 임계치를 이용하여 상기 교통 표지 영역을 추출하는 것을 특징으로 하는 센서 캘리브레이션 장치
9 9
제7항에 있어서,상기 프로세서는,상기 라이더 센서를 중심으로 하는 전역 좌표계에서 상기 3차원 포인트 클라우드를 기준 임계치까지 축적하고,상기 축적된 3차원 포인트 클라우드를 기준 복셀 그리드에 따라 샘플링하여 복셀화를 수행하고,상기 복셀화된 3차원 포인트 클라우드를 기준 세기에 따라 필터링하고,상기 필터링된 3차원 포인트 클라우드를 기준 근접 거리에 따라 클러스터링하고,상기 클러스터링된 3차원 포인트 클라우드에 무작위 샘플 데이터의 최대 지지를 받는 모델을 선택하는 영상 처리 방식 및 평면 투영 방식을 적용하여 2차원 평면에 피팅하여, 상기 2차원 교통 표지 데이터로 변환하는 것을 특징으로 하는 센서 캘리브레이션 장치
10 10
제7항에 있어서,상기 프로세서는,상기 제1 코너 데이터에 따른 모서리의 기울기 및 상기 제3 코너 데이터에 따른 모서리의 기울기를 비교하여 상기 3차원 공간에서 상기 제1 교통 표지에 대한 제1 법선 벡터를 산출하고,상기 제1 교통 표지에 대한 상기 제1 법선 벡터 및 제2 교통 표지에 대한 제2 법선 벡터를 비교하여 상기 영상 센서의 회전 교정값을 추정하는 것을 특징으로 하는 센서 캘리브레이션 장치
11 11
제7항에 있어서,상기 프로세서는,상기 제1 코너 데이터 및 상기 제4 코너 데이터를 비교하여 상기 제1 교통 표지에 대한 상기 영상 센서의 제1 위치 데이터를 산출하고,상기 제1 교통 표지에 대한 상기 영상 센서의 제1 위치 데이터 및 제2 교통 표지에 대한 상기 영상 센서의 제2 위치 데이터를 비교하여 상기 영상 센서의 위치 교정값을 추정하는 것을 특징으로 하는 센서 캘리브레이션 장치
12 12
제7항에 있어서,상기 프로세서는,상기 영상 센서 및 상기 라이다 센서가 제3 교통 표지를 검출하면, 상기 제1 교통 표지 및 제2 교통 표지를 기반으로 추정한 상기 영상 센서의 교정값을 상기 제2 교통 표지 및 상기 제3 교통 표지를 기반으로 다시 추정하여 상기 교정값을 업데이트하는 것을 특징으로 하는 센서 캘리브레이션 장치
13 13
이동체에 있어서,제1 교통 표지를 촬영하여 2차원 이미지를 획득하는 영상 센서;상기 제1 교통 표지에 무선 신호를 송수신하여 3차원 포인트 클라우드를 획득하는 라이다 센서;상기 영상 센서 및 상기 라이다 센서에 연결되어 상기 라이다 센서 기반한 상기 영상 센서의 교정값을 추정하는 센서 캘리브레이션 장치; 및상기 센서 캘리브레이션 장치의 출력 결과를 기반으로 이동 계획을 갱신하고 이동을 수행하는 주행 수단을 포함하며,상기 센서 캘리브레이션 장치는,상기 2차원 이미지로부터 교통 표지 추출 모델을 이용하여 교통 표지 영역을 추출하고,상기 3차원 포인트 클라우드로부터 상기 3차원 교통 표지 데이터를 인식하고 2차원 교통 표지 데이터로 변환하고,상기 교통 표지 영역에서 추출한 제1 코너 데이터, 상기 2차원 교통 표지 데이터에서 추출한 제2 코너 데이터, 상기 제2 코너 데이터를 3차원 공간에 투영한 제3 코너 데이터, 상기 제2 코너 데이터를 2차원 평면에 투영한 제4 코너 데이터를 이용하여 상기 라이다 센서 기반한 상기 영상 센서의 교정값을 추정하는 것을 특징으로 하는 이동체
지정국 정보가 없습니다
패밀리정보가 없습니다
국가 R&D 정보가 없습니다.