1 |
1
운전자 행동을 인식하여, 운전자 행동 정보를 생성하는 운전자 행동 인식 모듈;차량 행동을 인식하여, 차량 행동 정보를 생성하는 차량 행동 인식 모듈;상기 운전자 행동 정보와 상기 차량 행동 정보를 융합하여, 운전자와 차량이 상호 작용된 주행 패턴을 인식하여 주행 안정성 예측 정보를 생성하는 주행 안정성 인식 모듈; 및운전자와 차량이 상호 작용된 주행 안정성 예측 정보를 기반으로, 운전자가 주행 모드를 전환하도록 유도하는 피드백 정보를 생성하는 운전자-차량 상호작용 처리 모듈;을 포함하는 운전자 및 차량 간의 상호 작용을 위한 장치
|
2 |
2
제1항에서, 상기 운전자 행동 인식 모듈은,제1 비젼 센서에서 촬영한 운전자 영상 정보를 이용하여, 운전자 시선과 머리 자세를 분석하고, 터치 센서에서 감지한 터치 정보를 이용하여, 운전자의 손과 차량 핸들 간의 접촉 상태를 분석하고,운전자가 착용한 웨어러블 디바이스에 포함된 근전도 센서에 감지한 근전도 신호를 이용하여, 손과 팔의 상태를 분석함을 특징으로 하는 운전자 및 차량 간의 상호 작용을 위한 장치
|
3 |
3
제1항에서, 상기 차량 행동 인식 모듈은,제2 비젼 센서에서 차량의 주변 환경을 촬영한 주변 영상 정보로부터 검출된 형상 모델, 상기 형상 모델을 구성하는 특징점을 추적한 3차원 형상 모델 추적 정보 및 상기 3차원 형상 모델 추적 정보를 기반으로 추정된 3차원 형상 모델의 자세, 위치 및 모션을 이용하여, 상기 차량 행동을 인식함을 특징으로 하는 운전자 및 차량 간의 상호 작용을 위한 장치
|
4 |
4
제1항에서, 상기 주행 안정성 인식 모듈은,상기 운전자 행동 정보를 분석하여 운전자 상태를 인식하고, 인식된 운전자 상태를 기반으로 운전자 상태 레벨을 생성하는 운전자 상태 인식부;상기 운전자 상태 레벨과 상기 차량 행동 정보를 융합하여, 운전자와 차량이 상호작용된 주행 패턴을 인식하고, 인식된 주행 패턴을 기반으로 주행 패턴 정보를 생성하는 주행 패턴 인식부;상기 주행 패턴 정보를 분석하여 주행 안정성을 인식하고, 인식된 주행 안정성을 기반으로 주행 안정성 정보를 생성하는 주행 안정성 인식부; 및과거의 주행 안정성 정보와 현재의 주행 안정성 정보를 이용하여 미래의 주행 안정성을 예측하고, 예측된 주행 안정성을 기반으로 주행 안정성 예측 정보를 생성하는 주행 안정성 예측부;를 포함함을 특징으로 하는 운전자 및 차량 간의 상호 작용을 위한 장치
|
5 |
5
제1항에서, 상기 운전자-차량 상호작용 처리 모듈은,운전자가 착용한 웨어러블 디바이스를 제어하는 제어 정보, 위험 상황을 알리는 문자 메시지, 경보음, 음성 메시지 중 적어도 하나를 상기 피드백 정보로서 생성함을 특징으로 하는 운전자 및 차량 간의 상호 작용을 위한 장치
|
6 |
6
제5항에서, 상기 제어 정보는,운전자가 착용한 웨어러블 디바이스에 포함된 진동 센서, 운전자의 사용자 단말에 포함된 진동 센서 및 동승자의 사용자 단말에 포함된 진동 센서 중 적어도 하나를 제어하는 정보임을 특징으로 하는 운전자 및 차량 간의 상호 작용을 위한 장치
|
7 |
7
제5항에서, 상기 운전자-차량 상호작용 처리 모듈은,상기 운전자 행동 정보로부터 분석된 운전자 상태에 따라 상기 피드백 정보를 운전자가 착용한 웨어러블 디바이스, 운전자의 사용자 단말 및 동승자의 사용자 단말 중 어느 하나로 전송함을 특징으로 하는 운전자 및 차량 간의 상호 작용을 위한 장치
|
8 |
8
운전자 행동을 인식하여, 운전자 행동 정보를 생성하는 단계;차량 행동을 인식하여, 차량 행동 정보를 생성하는 단계;상기 운전자 행동 정보와 상기 차량 행동 정보를 융합하여, 운전자와 차량이 상호 작용된 주행 패턴을 인식하고, 인식된 주행 패턴을 이용하여 주행 안정성 예측 정보를 생성하는 단계; 상기 주행 안정성 예측 정보를 기반으로, 주행 모드를 전환하도록 운전자의 행동 변화를 유도하는 피드백 정보를 생성하는 단계; 및상기 피드백 정보를 운전자가 착용한 웨어러블 디바이스로 전송하는 단계;를 포함하는 운전자 및 차량 간의 상호 작용 방법
|
9 |
9
제8항에서, 상기 운전자 행동 정보를 생성하는 단계는,제1 비젼 센서에서 촬영한 운전자 영상 정보를 이용하여, 운전자 시선과 머리 자세를 분석하는 단계;터치 센서에서 감지한 터치 정보를 이용하여, 운전자의 손과 차량 핸들 간의 접촉 상태를 분석하는 단계;운전자가 착용한 웨어러블 디바이스에 포함된 근전도 센서에 감지한 근전도 신호를 이용하여, 손과 팔의 상태를 분석하는 단계; 및상기 운전자 시선과 머리 자세의 분석 결과, 상기 운전자의 손과 차량 핸들 간의 접촉 상태의 분석 결과 및 손과 팔의 상태의 분석 결과를 이용하여 상기 운전자 행동 정보를 인식하는 단계를 포함함을 특징으로 하는 운전자 및 차량 간의 상호 작용 방법
|
10 |
10
제8항에서, 상기 차량 행동 정보를 생성하는 단계는,제2 비젼 센서에서 차량의 주변 환경을 촬영한 주변 영상 정보로부터 형상 모델을 검출하는 단계;상기 형상 모델을 구성하는 특징점을 추적하여, 상기 3차원 형상 모델을 추적하는 단계;상기 추적된 3차원 형상 모델을 기반으로 상기 3차원 형상 모델의 자세, 위치 및 모션을 추정하는 단계; 및상기 추정된 3차원 형상 모델의 자세, 위치 및 모션을 기반으로 상기 차량 행동을 인식하는 단계를 포함함을 특징으로 하는 운전자 및 차량 간의 상호 작용 방법
|
11 |
11
제8항에서, 상기 주행 안정성 예측 정보를 생성하는 단계는,상기 운전자 행동 정보를 분석하여 운전자 상태를 인식하고, 인식된 운전자 상태를 기반으로 운전자 상태 레벨을 생성하는 단계;상기 운전자 상태 레벨과 상기 차량 행동 정보를 융합하여, 운전자와 차량이 상호작용된 주행 패턴을 인식하고, 인식된 주행 패턴을 기반으로 주행 패턴 정보를 생성하는 단계;상기 주행 패턴 정보를 분석하여 주행 안정성을 인식하고, 인식된 주행 안정성을 기반으로 주행 안정성 정보를 생성하는 단계; 및과거의 주행 안정성 정보와 현재의 주행 안정성 정보를 이용하여 미래의 주행 안정성을 예측하고, 예측된 주행 안정성을 기반으로 상기 주행 안정성 예측 정보를 생성하는 단계;를 포함함을 특징으로 하는 운전자 및 차량 간의 상호 작용 방법
|
12 |
12
제8항에서, 상기 피드백 정보를 생성하는 단계는,상기 주행 안정성 예측 정보를 기반으로 피드백 레벨을 결정하는 단계;상기 결정된 피드백 레벨을 기반으로 상기 피드백 정보를 생성하는 단계;상기 운전자 행동 정보를 기반으로 상기 피드백 정보의 수신 대상을 결정하는 단계; 및상기 결정된 수신 대상으로 상기 피드백 정보를 전송하는 단계를 포함함을 특징으로 하는 운전자 및 차량 간의 상호 작용 방법
|
13 |
13
제12항에서, 상기 피드백 정보의 수신 대상은,운전자가 착용한 웨어러블 디바이스, 운전자의 사용자 단말 및 동승자의 사용자 단말 중 적어도 하나임을 특징으로 하는 운전자 및 차량 간의 상호 작용 방법
|
14 |
14
제8항에서, 상기 피드백 정보를 생성하는 단계는,상기 운전자 행동 정보를 기반으로 상기 피드백 정보에 포함된 피드백 레벨을 조정함을 특징으로 하는 운전자 및 차량 간의 상호 작용 방법
|
15 |
15
제8항에서, 상기 피드백 정보를 운전자가 착용한 웨어러블 디바이스로 전송하는 단계;상기 피드백 정보에 따라 상기 웨어러블 디바이스에 포함된 진동 센서가 진동을 발생하는 단계;상기 진동에 따라 운전자 행동 정보의 변화 여부를 판단하는 단계;상기 운전자 행동 정보의 변화가 없는 경우, 진동 강도와 진동 주기가 조정된 피드백 정보를 생성하는 단계; 및상기 진동 강도와 진동 주기가 조정된 피드백 정보를 상기 웨어러블 디바이스로 전송하는 단계;를 더 포함함을 특징으로 하는 운전자 및 차량 간의 상호 작용 방법
|
16 |
16
제15항에서, 상기 판단하는 단계는,상기 진동 센서가 진동을 발생한 시점 이전에 생성된 제1 운전자 행동 정보와 상기 진동 센서가 진동을 발생한 시점 이전에 생성된 제2 운전자 행동 정보 간의 차이를 분석하여 상기 운전자 행동 정보의 변화 여부를 판단하는 단계임을 특징으로 하는 운전자 및 차량 간의 상호 작용 방법
|