1 |
1
주행차량(100) 내에 장착되어 도로 영상을 실시간 촬영하는 영상센서(110);상기 도로 영상을 정지 영상(Still Image)으로 변환하는 정지영상 변환부(140);주행차량(100)의 구동축(120)의 회전속도 및 피구동축(130)의 회전속도인 차량데이터를 비교하여 회전속도의 차이값이 일정한 임계범위를 초과하는지 여부를 비교하는 임계값 비교부(150);상기 정지영상 변환부(140)에 의해 변환된 정지영상인 영상데이터 및 상기 임계값 비교부(150)에 의해 비교된 차량데이터를 융합하여 융합정보를 생성하여 전송하는 융합정보 전송부(160);관제센터(200) 내에 구현되고, 상기 융합정보 전송부(160)에 의해 전송된 영상데이터 및 차량데이터의 융합정보를 수신하는 융합정보 수신부(210);상기 정지 영상에 웨이블릿 패킷 알고리즘을 적용하여 특징벡터를 추출하고, 상기 추출된 특징벡터의 분산값을 계산하는 영상데이터 처리부(220);상기 융합정보 수신부(210)에 의해 수신된 융합정보 중에서 차량데이터인 미끄러운 노면으로 판정된 미끄럼 상태 측정결과를 해당 노면의 위치정보에 따라 상기 영상데이터 처리부(220)에서 처리된 영상데이터와 정합시키는 차량데이터 처리부(230);상기 영상데이터 처리부(220)에서 처리된 영상데이터와 상기 차량데이터 처리부(230)에서 처리된 차량데이터가 일치하는지 여부를 비교하는 데이터 비교부(240); 및노면판단 정보를 채택하여 노면을 최종적으로 판정하는 노면 최종 판정부(270)를 포함하는 차량데이터와 영상데이터를 활용한 노면상태 측정 시스템
|
2 |
2
제1항에 있어서, 노면상태 판정을 위한 영상데이터 판정확률을 산출하는 영상데이터 판정확률 산출부(250); 및노면상태 판정을 위한 차량데이터 판정확률을 산출하는 차량데이터 판정확률 처리부(260)를 추가로 포함하는 차량데이터와 영상데이터를 활용한 노면상태 측정 시스템
|
3 |
3
제1항에 있어서, 상기 영상데이터와 차량데이터가 일치하는 경우 노면상태를 최종 판정하고, 상기 영상데이터와 차량데이터가 일치하지 않는 경우, 상기 데이터 비교부(240)는 야간인지 여부를 확인하며, 야간이라면 상기 차량데이터를 노면판단 정보로 채택하는 것을 특징으로 하는 차량데이터와 영상데이터를 활용한 노면상태 측정 시스템
|
4 |
4
제3항에 있어서, 야간이 아닌 경우, 차량데이터 판정확률이 영상데이터 판정확률보다 큰지 여부를 비교하고, 상기 차량데이터 판정확률이 영상데이터 판정확률보다 큰 경우 차량 데이터를 노면판단 정보로 채택하고, 상기 차량데이터 판정확률이 영상데이터 판정확률보다 크지 않은 경우, 상기 영상 데이터를 노면판단 정보로 채택하는 것을 특징으로 하는 차량데이터와 영상데이터를 활용한 노면상태 측정 시스템
|
5 |
5
제1항에 있어서, 상기 영상데이터 처리부(220)는, 상기 영상센서(110)로부터 촬영된 영상이 컬러 영상인 경우, 상기 컬러 영상을 그레이 변환하여 흑백 영상으로 변환하는 흑백영상 변환부(221);상기 흑백 영상에 웨이블릿 패킷 알고리즘을 적용하여 웨이블릿 패킷 변환하는 웨이블릿 패킷 변환부(222);상기 변환된 웨이블릿 패킷의 대각선 성분 특징벡터를 추출하는 특징벡터 추출부(223); 및상기 추출된 특징벡터의 흩어짐 정도에 대응하는 분산값을 계산하는 분산값 계산부(224)를 포함하는 차량데이터와 영상데이터를 활용한 노면상태 측정 시스템
|
6 |
6
제1항에 있어서,상기 영상센서(110)는 도로 동영상을 획득하는 블랙박스 또는 스마트폰인 것을 특징으로 하는 차량데이터와 영상데이터를 활용한 노면상태 측정 시스템
|
7 |
7
제1항에 있어서,상기 융합정보 전송부(160)는 구동축(120)의 회전속도 및 피구동축(130)의 회전속도 차이값이 일정한 임계범위를 초과할 경우, 해당 노면을 미끄러운 노면으로 판정하고, 해당 노면의 위치정보와 미끄럼 상태 측정결과를 무선통신을 통해 관제센터(200)로 전송하는 것을 특징으로 하는 차량데이터와 영상데이터를 활용한 노면상태 측정 시스템
|
8 |
8
a) 주행차량(100)이 노면 주행중 차량 데이터(A)를 수집하고 데이터를 처리하는 단계;b) 상기 주행차량(100)이 노면 주행중 영상 데이터(B) 수집하고 데이터를 처리하는 단계;c) 상기 차량 데이터와 영상 데이터가 일치하는지 여부를 확인하는 단계;d) 상기 차량 데이터와 영상 데이터가 일치하지 않는 경우, 야간인지 여부를 확인하는 단계;e) 야간이 아닌 경우, 차량 데이터(A) 확률과 영상 데이터(B) 확률을 산출하는 단계; f) 상기 차량 데이터(A) 확률이 상기 영상 데이터(B) 확률보다 큰지 여부를 확인하는 단계;g) 상기 차량 데이터(A) 확률이 상기 영상 데이터(B) 확률보다 크지 않은 경우, 상기 영상 데이터(B)를 노면판단 정보로 채택하는 단계;h) 상기 차량 데이터(A) 확률이 상기 영상 데이터(B) 확률보다 큰 경우, 상기 차량 데이터(A)를 노면판단 정보로 채택하는 단계; 및i) 상기 채택된 노면판단 정보에 따라 노면상태를 최종 판정하는 단계를 포함하되,상기 a) 단계는 상기 주행차량(100)의 구동축(120)의 회전속도 및 피구동축(130)의 회전속도를 비교하여 회전속도의 차이값이 일정한 임계범위를 초과할 경우, 해당 노면을 미끄러운 노면으로 판정하고, 해당 노면의 위치정보와 미끄럼 상태 측정결과를 무선통신을 통해 관제센터(200)로 전송하는 것을 특징으로 하는 차량데이터와 영상데이터를 활용한 노면상태 측정 방법
|
9 |
9
제8항에 있어서, 상기 b) 단계는,b-1) 차량에 기설치된 영상센서가 도로 영상(동영상)을 촬영하는 단계;b-2) 상기 동영상으로부터 일정 시간 간격의 정지영상을 캡쳐하는 단계;b-3) 상기 캡쳐된 정지영상을 관제센터(200)로 전송하는 단계;b-4) 상기 캡쳐된 정지영상이 컬러 영상인 경우, 상기 컬러 영상을 흑백 영상으로 그레이 변환하는 단계;b-5) 상기 흑백 영상을 웨이블릿 패킷 변환 또는 FFT 변환하는 단계;b-6) 대각선 방향의 특징 벡터를 추출하는 단계;b-7) 상기 추출된 특징벡터의 분산값을 계산하는 단계; 및b-8) 상기 계산된 분산값에 대해 노면상태 분류 알고리즘을 적용하여 노면 상태를 분류하는 단계를 포함하는 차량데이터와 영상데이터를 활용한 노면상태 측정 방법
|
10 |
10
제9항에 있어서, 상기 b-8) 단계에서 노면상태 분류 알고리즘은 SVM(Support Vector Machine) 또는 딥러닝(Deep Learning) 알고리즘이며,상기 c) 단계에서 상기 차량 데이터와 영상 데이터가 일치하는 경우 노면 상태를 최종 판단할 수 있으며,상기 d) 단계에서 야간인 경우, 상기 차량 데이터(A)를 노면판단 정보로 채택하며, 상기 i) 단계에서 상기 채택된 노면판단 정보에 따라 노면을 최종적으로 마른노면, 수막, 적설, 또는 결빙으로 판단하는 것을 특징으로 하는 차량데이터와 영상데이터를 활용한 노면상태 측정 방법
|