1 |
1
주행 영상에서 객체의 인식 여부를 판단하는 제1단계;복수의 각도들에 대응하여 센싱되는 거리 값들 및 상기 각도들에 기초하여 제1 조향 파라미터를 결정하는 제2단계;상기 주행 영상에서 상기 객체가 인식된 위치에 따른 오류와 PID 제어의 비례 이득(proportional gain)에 기초하여 제2 조향 파라미터를 결정하는 제3단계; 및상기 객체의 인식 여부에 따라, 상기 제1 조향 파라미터 및 상기 제2 조향 파라미터 중 적어도 하나에 기초하여 조향 파라미터를 결정하는 제4단계를 포함하는,자율 주행 방법
|
2 |
2
제1항에 있어서,상기 제2단계는 상기 객체가 인식되지 않았다는 판단에 따라 상기 제1 조향 파라미터를 결정하는 단계이고,상기 제3단계는 상기 객체가 인식되었다는 판단에 따라 상기 제2 2 조향 파라미터를 결정하는 단계인,자율 주행 방법
|
3 |
3
제1항에 있어서,상기 제4단계는상기 객체가 인식되었다는 판단에 따라, 상기 제1 조향 파라미터와 상기 제2 조향 파라미터 사이의 차이에 기초하여 상기 조향 파라미터를 결정하는 단계; 및상기 객체가 인식되지 않았다는 판단에 따라, 상기 제1 조향 파라미터에 기초하여 상기 조향 파라미터를 결정하는 단계를 포함하는,자율 주행 방법
|
4 |
4
제1항에 있어서,상기 제2단계는레이저 센서를 이용하여 상기 복수의 각도들에 대응하여 상기 거리 값들을 센싱하는 단계;상기 거리 값들과 상기 복수의 각도들의 코사인 값들에 기초하여 제1 축의 값들의 합을 계산하는 단계;상기 거리 값들과 상기 복수의 각도들의 사인 값들에 기초하여 제2 축의 값들의 합을 계산하는 단계; 및상기 제1 축의 값들의 합과 상기 제2 축의 값들의 합 사이의 비율에 기초하여 상기 제1 조향 파라미터를 계산하는 단계를 포함하는,자율 주행 방법
|
5 |
5
제1항에 있어서,상기 제3단계는상기 주행 영상에서 상기 객체가 인식된 위치가 상기 주행 영상의 중심을 기준으로 왼쪽 영역 혹은 오른쪽 영역 중 어느 영역에 있는지 확인하는 단계;상기 주행 영상에서 상기 객체가 인식된 위치가 속한 영역의 반대 영역에서 미리 설정된 지점과 상기 주행 영상의 중심 지점 사이의 차이에 기초하여 상기 오류를 계산하는 단계; 및상기 오류와 상기 비례 이득에 기초하여 상기 제2 조향 파라미터를 계산하는 단계를 포함하는,자율 주행 방법
|
6 |
6
제1항에 있어서,속도 파라미터를 변경하지 않고 유지하는 단계를 더 포함하는,자율 주행 방법
|
7 |
7
제1항에 있어서,상기 제3단계는상기 인식된 객체가 정지 사인에 해당하는지 판단하는 단계; 및상기 인식된 객체가 정지 사인에 해당한다는 판단에 따라, 상기 조향 파라미터와 속도 파라미터를 0으로 결정하는 단계를 포함하는,자율 주행 방법
|
8 |
8
작업장 내 로봇의 현재 위치, 상기 로봇의 목표 위치 및 적어도 하나의 장애물의 위치에 기초하여 포텐셜 필드를 생성하는 단계;상기 포텐셜 필드에 기초하여, 상기 로봇의 이동 방향에 관한 제1 정보를 생성하는 단계;거리 센서의 센싱 정보에 기초하여 생성된 주변 장애물의 인식 정보에 따라, 상기 로봇의 이동 방향에 관한 제2 정보를 생성하는 단계; 및상기 제1 정보 및 상기 제2 정보에 기초하여, 상기 로봇의 이동 방향을 포함하는 주행 경로를 결정하는 단계를 포함하는, 자율 주행 방법
|
9 |
9
제8항에 있어서,상기 포텐셜 필드를 생성하는 단계는상기 로봇의 현재 위치 및 상기 로봇의 목표 위치에 기초하여 흡인 포텐셜 필드(attractive potential field)를 생성하는 단계; 상기 적어도 하나의 장애물의 위치에 기초하여 반발 포텐셜 필드(repulsive potential field)를 생성하는 단계; 및 상기 흡인 포텐셜 필드 및 상기 반발 포텐셜 필드를 혼합함으로써 상기 포텐셜 필드를 생성하는 단계를 포함하는, 자율 주행 방법
|
10 |
10
제8항에 있어서,상기 포텐셜 필드를 생성하는 단계는상기 로봇의 목표 위치를 음전하로 모델링하고, 상기 장애물을 양전하로 모델링하며, 상기 로봇을 양전하로 모델링 함으로써 상기 포텐셜 필드를 생성하는 단계를 포함하는, 자율 주행 방법
|
11 |
11
제8항에 있어서,상기 인식 정보는기 학습된 신경망을 이용하여 생성되며, 상기 거리 센서에 의하여 센싱된 영상 내 상기 주변 장애물을 포함하는 영역을 지시하는 정보를 포함하는,자율 주행 방법
|
12 |
12
제8항에 있어서,상기 제1 정보 및 상기 제2 정보 각각은 상기 로봇이 상기 현재 위치에서 이동 가능한 방향 후보들의 점수들 중 적어도 일부를 포함하는,자율 주행 방법
|
13 |
13
제8항에 있어서,상기 제1 정보를 생성하는 단계는상기 로봇이 상기 현재 위치에서 이동 가능한 방향 후보들 중 상기 포텐셜 필드 상의 포텐셜 값이 낮은 후보일수록 더 큰 점수를 할당하는 단계를 포함하는,자율 주행 방법
|
14 |
14
제8항에 있어서,상기 제2 정보를 생성하는 단계는상기 로봇이 상기 현재 위치에서 이동 가능한 방향 후보들 중 상기 인식 정보에 대응하는 영역을 회피하는 후보일수록 더 큰 점수를 할당하는 단계를 포함하는, 자율 주행 방법
|
15 |
15
제8항에 있어서,상기 주행 경로를 결정하는 단계는상기 제1 정보를 위한 제1 가중치 및 상기 제2 정보를 위한 제2 가중치에 기초하여, 상기 제1 정보 및 상기 제2 정보를 가중 합산함으로써, 상기 로봇의 이동 방향을 결정하는 단계를 포함하는,자율 주행 방법
|
16 |
16
제8항에 있어서,상기 주행 경로가 결정됨에 따라 상기 로봇을 상기 이동 방향으로 이동시키는 단계; 및상기 로봇이 상기 이동 방향으로 이동함에 따라, 상기 로봇의 현재 위치를 갱신하는 단계를 더 포함하는, 자율 주행 방법
|
17 |
17
제16항에 있어서, 상기 로봇의 현재 위치를 갱신하는 단계는상기 로봇이 상기 목표 위치에 도달할 때까지, 상기 제1 정보를 결정하는 단계, 상기 제2 정보를 결정하는 단계, 및 상기 주행 경로를 결정하는 단계를 반복적으로 수행함으로써 상기 로봇의 현재 위치를 갱신하는 단계를 포함하는, 자율 주행 방법
|
18 |
18
하드웨어와 결합되어 제1항 내지 제17항 중 어느 하나의 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램
|
19 |
19
로봇의 주행 영상을 촬영하는 비전 센서;상기 로봇과 주변 객체와의 거리를 센싱하는 거리 센서; 및 상기 주행 영상에서 객체의 인식 여부를 판단하고, 복수의 각도들에 대응하여 센싱되는 거리 값들 및 상기 각도들에 기초하여 제1 조향 파라미터를 결정하며, 상기 주행 영상에서 상기 객체가 인식된 위치에 따른 오류와 PID 제어의 비례 이득(proportional gain)에 기초하여 제2 조향 파라미터를 결정하고, 상기 객체의 인식 여부에 따라, 상기 제1 조향 파라미터 및 상기 제2 조향 파라미터 중 적어도 하나에 기초하여 조향 파라미터를 결정하는 적어도 하나의 프로세서를 포함하는,자율 주행 장치
|
20 |
20
작업장 내 로봇의 현재 위치, 상기 로봇의 목표 위치 및 적어도 하나의 장애물의 위치를 포함하는 영상을 촬영하는 비전 센서;상기 로봇과 주변 장애물과의 거리를 감지하여 센싱 정보를 생성하는 거리 센서; 및 상기 영상에 기초하여 포텐셜 필드를 생성하고, 상기 포텐셜 필드에 기초하여 상기 로봇의 이동 방향에 관한 제1 정보를 생성하고, 상기 센싱 정보에 기초하여 생성된 주변 장애물의 인식 정보에 따라 상기 로봇의 이동 방향에 관한 제2 정보를 생성하며, 상기 제1 정보 및 상기 제2 정보에 기초하여, 상기 로봇의 이동 방향을 포함하는 주행 경로를 결정하는 적어도 하나의 프로세서를 포함하는, 자율 주행 장치
|