1 |
1
신호등 인식 모델 학습 및 추론 방법을 실행하는 시스템에 있어서:영상 데이터를 수집하는 카메라를 포함하는 데이터 수집 플랫폼; 그리고상기 영상 데이터 중 신호등이 포함된 신호등 영상 데이터를 샘플링하고, 상기 신호등 영상 데이터에 기반하여 주석 데이터를 생성하고, 및 상기 신호등 영상 데이터 및 주석 데이터를 이용하여 신호등 데이터 셋을 생성하는 제1 프로세서를 포함하되,상기 신호등 데이터 셋은 상기 신호등의 위치, 상기 신호등의 종류, 상기 신호등의 등화 여부, 및 상기 신호등의 신호 방향에 대한 정보들을 포함하는 시스템
|
2 |
2
제1 항에 있어서,상기 영상 데이터 및 상기 신호등 데이터 셋을 입력 받고, 상기 신호등 데이터 셋 및 학습 조건에 기초하여 상기 신호등의 상기 위치, 상기 신호등의 상기 종류, 상기 신호등의 상기 등화 여부, 및 상기 신호등의 상기 신호 방향을 추론하도록 학습하고, 및 상기 영상 데이터 및 상기 학습 결과에 기초하여 상기 신호등의 상기 위치, 상기 신호등의 상기 종류, 상기 신호등의 상기 등화 여부, 상기 신호등의 상기 신호 방향을 추론하는 제2 프로세서를 더 포함하는 시스템
|
3 |
3
제2 항에 있어서,상기 학습 조건은, 상기 영상 데이터의 크기, 데이터 증강(data augmentation), 학습률, 모멘텀(momentum), 가중치 감소(weight decay), 스케쥴(schedule), 에포크(epoch), 배치 크기(batch size), 및 평가 주기 중 적어도 하나를 포함하는 시스템
|
4 |
4
제2 항에 있어서,상기 학습 조건은, 상기 영상 데이터의 수집 환경, 상기 신호등 데이터 셋의 크기, 및 상기 카메라의 성능에 따라 변경되는 시스템
|
5 |
5
제2 항에 있어서,상기 신호등의 상기 위치를 추론하도록 학습하는 것은, 상기 신호등 데이터 셋에 표시된 상기 신호등의 상기 위치를 인지하고, 상기 신호등의 상기 위치를 예측하고, 그리고 상기 인지 결과와 상기 예측 결과에 기반하여 IOU(Intersection Over Union) 손실을 계산하는 것을 포함하는 시스템
|
6 |
6
제2 항에 있어서,상기 신호등의 상기 종류, 상기 신호등의 상기 등화 여부, 및 상기 신호등의 상기 신호 방향을 추론하도록 학습하는 것은, 상기 신호등의 상기 종류, 상기 신호등의 상기 등화 여부, 및 상기 신호등의 상기 신호 방향에 대한 실제 확률 분포를 계산하고, 상기 신호등의 상기 종류, 상기 신호등의 상기 등화 여부, 및 상기 신호등의 상기 신호 방향에 대한 확률 분포를 예측하고, 그리고 상기 계산 결과 및 예측 결과에 기반하여 BCE(Binary Cross Entropy) 손실을 계산하는 것을 포함하는 시스템
|
7 |
7
제2 항에 있어서,상기 신호등의 상기 종류, 상기 신호등의 상기 등화 여부, 및 상기 신호등의 상기 신호 방향을 추론하도록 학습하는 것은 상기 신호등의 상기 종류, 상기 신호등의 상기 등화 여부, 및 상기 신호등의 상기 신호 방향에 대한 정보들에 기반하여 둘 이상의 신호등 상태 벡터들을 생성하는 것을 포함하고,상기 둘 이상의 신호등 상태 벡터들의 각각은 상기 신호등의 상기 종류, 상기 신호등의 상기 등화 여부, 및 상기 신호등의 상기 신호 방향의 정보를 나타내는 비트들을 포함하는 시스템
|
8 |
8
제1 항에 있어서,상기 주석 데이터는 상기 정보들이 각각 크기를 갖는 숫자 벡터로 표현되는 것에 기반하는 시스템
|
9 |
9
제1 항에 있어서,상기 신호등 데이터 셋은 상기 신호등 영상 데이터마다 하나의 주석 데이터가 포함된 복수의 데이터 셋들을 포함하는 시스템
|
10 |
10
데이터 수집 플랫폼 및 제1 프로세서를 포함하는 신호등 인식 모델 학습 및 추론 방법에 있어서:카메라를 포함하는 상기 데이터 수집 플랫폼이 영상 데이터를 수집하는 단계;상기 제1 프로세서가 상기 영상 데이터 중 신호등이 포함된 신호등 영상 데이터를 샘플링하는 단계;상기 제1 프로세서가 상기 신호등 영상 데이터에 기반하여 주석 데이터를 생성하는 단계; 그리고상기 제1 프로세서가 상기 신호등 영상 데이터 및 주석 데이터를 이용하여 신호등 데이터 셋을 생성하는 단계를 포함하되,상기 신호등 데이터 셋은 상기 신호등의 위치, 상기 신호등의 종류, 상기 신호등의 등화 여부, 및 상기 신호등의 신호 방향에 대한 정보들을 포함하는 방법
|
11 |
11
제10 항에 있어서,제2 프로세서가 상기 영상 데이터 및 상기 신호등 데이터 셋을 입력 받아, 상기 신호등 데이터 셋 및 학습 조건에 기초하여 상기 신호등의 상기 위치, 상기 신호등의 상기 종류, 상기 신호등의 상기 등화 여부, 및 상기 신호등의 상기 신호 방향을 추론하도록 학습하는 단계; 그리고상기 제2 프로세서가 상기 학습 결과 및 상기 영상 데이터에 기초하여 상기 신호등의 상기 위치, 상기 신호등의 상기 종류, 상기 신호등의 상기 등화 여부, 및 상기 신호등의 상기 신호 방향을 추론하는 단계를 더 포함하는 방법
|
12 |
12
제11 항에 있어서,상기 학습 조건은, 상기 영상 데이터의 크기, 데이터 증강(data augmentation), 학습률, 모멘텀(momentum), 가중치 감소(weight decay), 스케쥴(schedule), 에포크(epoch), 배치 크기(batch size), 및 평가 주기 중 적어도 하나를 포함하는 방법
|
13 |
13
제11 항에 있어서,상기 학습 조건은, 상기 영상 데이터의 수집 환경, 상기 신호등 데이터 셋의 크기, 및 상기 카메라의 성능에 따라 변경되는 방법
|
14 |
14
제11 항에 있어서,상기 신호등의 상기 위치를 추론하도록 학습하는 단계는, 상기 신호등 데이터 셋에 표시된 상기 신호등의 상기 위치를 인지하는 단계, 상기 신호등의 상기 위치를 예측하는 단계, 그리고 상기 인지 결과와 상기 예측 결과에 기반하여 IOU(Intersection Over Union) 손실을 계산하는 단계를 포함하는 방법
|
15 |
15
제11 항에 있어서,상기 신호등의 상기 종류, 상기 신호등의 상기 등화 여부, 및 상기 신호등의 상기 신호 방향을 추론하도록 학습하는 단계는, 상기 신호등의 상기 종류, 상기 신호등의 상기 등화 여부, 및 상기 신호등의 상기 신호 방향에 대한 실제 확률 분포를 계산하는 단계, 상기 신호등의 상기 종류, 상기 신호등의 상기 등화 여부, 및 상기 신호등의 상기 신호 방향에 대한 확률 분포를 예측하는 단계, 그리고 상기 계산 결과 및 예측 결과에 기반하여 BCE(Binary Cross Entropy) 손실을 계산하는 단계를 포함하는 방법
|
16 |
16
제11 항에 있어서,상기 신호등의 상기 종류, 상기 신호등의 상기 등화 여부, 및 상기 신호등의 상기 신호 방향을 추론하도록 학습하는 단계는, 상기 신호등의 상기 종류, 상기 신호등의 상기 등화 여부, 및 상기 신호등의 상기 신호 방향에 대한 정보들에 기반하여 둘 이상의 신호등 상태 벡터들을 생성하는 단계를 포함하고,상기 둘 이상의 신호등 상태 벡터들의 각각은 상기 신호등의 상기 종류, 상기 신호등의 상기 등화 여부, 및 상기 신호등의 상기 신호 방향의 정보를 나타내는 비트들을 포함하는 방법
|
17 |
17
제10 항에 있어서,상기 주석 데이터는 상기 정보들이 각각 크기를 갖는 숫자 벡터로 표현되는 것에 기반하는 방법
|
18 |
18
제10 항에 있어서,상기 신호등 데이터 셋은 상기 신호등 영상 데이터마다 하나의 주석 데이터가 포함된 복수의 데이터 셋들을 포함하는 방법
|