맞춤기술찾기

이전대상기술

애드혹 라우팅 강화학습 시스템, 방법, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램

  • 기술번호 : KST2023008394
  • 담당센터 : 대전기술혁신센터
  • 전화번호 : 042-610-2279
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 본 발명은 애드혹 라우팅 강화학습 시스템, 방법, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램에 관한 것으로, 더욱 상세하게는 복수의 이동체에 대한 라우팅을 최적화 할 수 있는 애드혹 라우팅 강화학습 시스템, 방법, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램에 관한 것이다.
Int. CL H04L 45/00 (2022.01.01) H04W 40/04 (2009.01.01) H04W 40/20 (2009.01.01) H04W 40/22 (2009.01.01) H04W 84/18 (2009.01.01) H04L 41/14 (2022.01.01) H04L 45/12 (2022.01.01)
CPC H04L 45/08(2013.01) H04W 40/04(2013.01) H04W 40/20(2013.01) H04W 40/22(2013.01) H04W 84/18(2013.01) H04L 41/145(2013.01) H04L 45/126(2013.01) H04L 45/127(2013.01)
출원번호/일자 1020220034824 (2022.03.21)
출원인 국방과학연구소, 한국과학기술원
등록번호/일자
공개번호/일자 10-2023-0137098 (2023.10.04) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 공개
심사진행상태 수리
심판사항
구분 국내출원/신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2022.03.21)
심사청구항수 20

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 국방과학연구소 대한민국 대전광역시 유성구
2 한국과학기술원 대한민국 대전광역시 유성구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 안재하 대전광역시 유성구
2 이성주 대전광역시 유성구
3 공태식 대전광역시 유성구
4 윤형준 대전광역시 유성구
5 이택경 대전광역시 유성구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 제일특허법인(유) 대한민국 서울특별시 서초구 마방로 ** (양재동, 동원F&B빌딩)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2022.03.21 수리 (Accepted) 1-1-2022-0302801-13
2 선행기술조사의뢰서
Request for Prior Art Search
2022.07.15 수리 (Accepted) 9-1-9999-9999999-89
3 선행기술조사보고서
Report of Prior Art Search
2022.09.15 발송처리완료 (Completion of Transmission) 9-6-2023-0147160-56
4 특허고객번호 정보변경(경정)신고서·정정신고서
2023.01.31 수리 (Accepted) 4-1-2023-5023571-05
5 특허고객번호 정보변경(경정)신고서·정정신고서
2023.05.04 수리 (Accepted) 4-1-2023-5110236-33
6 의견제출통지서
Notification of reason for refusal
2023.08.11 발송처리완료 (Completion of Transmission) 9-5-2023-0732403-44
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
복수의 이동체에 대한 사전 정의된 이동성을 기반으로 상기 복수의 이동체 각각의 통신에 대한 시뮬레이션 환경을 구현하는 네트워크 시뮬레이터;상기 시뮬레이션 환경의 라우팅 경로에서 상기 복수의 이동체 중 제1 노드의 다음 라우트인 제2 노드를 선택하는 액션을 추출하는 강화학습 에이전트; 및상기 네트워크 시뮬레이터로 상기 복수의 이동체 각각에 대한 통신을 시뮬레이션하고, 상기 시뮬레이션의 결과로부터 강화학습 데이터를 추출하며, 추출된 상기 강화학습 데이터로 상기 강화학습 에이전트를 학습시키는 강화학습 모듈을 포함하는 것을 특징으로 하는 애드혹 라우팅 강화학습 시스템
2 2
제 1 항에 있어서,상기 강화학습 모듈은,상기 라우팅 경로에서 선택된 상기 제2 노드와 목적지에 대응하는 제3 노드까지의 거리가 가까워질수록 상기 강화학습 에이전트에 높은 보상(reward)을 제공하는 것을 특징으로 하는 애드혹 라우팅 강화학습 시스템
3 3
제 1 항에 있어서,상기 강화학습 모듈은,상기 노드가 가지는 링크 에러(link error) 및 위치 에러(location error)가 작을수록 상기 강화학습 에이전트에 높은 보상(reward)을 제공하는 것을 특징으로 하는 애드혹 라우팅 강화학습 시스템
4 4
제 1 항에 있어서,상기 강화학습 모듈은,상기 제1 노드가 상기 라우팅 시 선택한 노드가 최종 목적지 노드와 같을 때, 상기 라우팅이 성공한 것으로 확인하고 상기 학습을 종료하거나, 에러 혹은 더 이상 라우팅이 불가능함을 감지하였을 때 상기 학습을 종료하는 것을 특징으로 하는 애드혹 라우팅 강화학습 시스템
5 5
제 1 항에 있어서,상기 강화학습 모듈은,처음 observation space와 action space를 상기 시뮬레이션의 환경과 동일하게 상기 복수의 이동체에 대응하는 노드의 총 수로 설정하고,Q-learning을 기반으로 학습될 보상의 기대값인 q-value들을 모두 음의 무한대로 설정하며,상기 각 액션에 대한 미래의 보상(q-value)을 업데이트할 q-table을 설정하는 것을 특징으로 하는 애드혹 라우팅 강화학습 시스템
6 6
제 5 항에 있어서,상기 강화학습 모듈은,상기 강화학습 에이전트를 학습시키기 위해, 상기 강화학습 에이전트에 랜덤한 행동을 실행시키고, 상기 학습은 상기 q-table에 새로운 데이터를 누적하기 위한 exploration과, 학습된 지식을 사용하여 최적의 판단을 내리기 위한 exploitation으로 나뉘는 것을 특징으로 하는 애드혹 라우팅 강화학습 시스템
7 7
제 6 항에 있어서,상기 강화학습 모듈은,상기 랜덤한 행동으로서, 일정한 1 미만의 상수 epsilon을 정의하여, 랜덤하게 생성된 1 미만의 수가 상기 상수 epsilon보다 작을 경우, 상기 각 액션에 대하여 무작위의 액션을 선정하고, 상기 선정된 무작위의 액션은 상기 네트워크 시뮬레이터로 전달되는 것을 특징으로 하는 애드혹 라우팅 강화학습 시스템
8 8
제 7 항에 있어서,상기 강화학습 모듈은,상기 랜덤하게 생성된 1 미만의 수가 상기 상수 epsilon보다 클 경우, current node에 대응하는 상기 q-table에서 가장 기댓값이 높은 index를 검출하고, 상기 검출된 index의 노드를 라우팅에 있어서 선택될 다음 노드로 설정하는 것을 특징으로 하는 애드혹 라우팅 강화학습 시스템
9 9
제 5 항에 있어서,상기 강화학습 모듈은,상기 라우팅 경로에서 제1 노드의 다음 라우트인 제2 노드를 선택하는 액션에 대응하는 상기 q-value를 수학식 1을 통해 업데이트하고,(수학식 1) 여기서, s_t는 current node, a_t는 action으로 판단된 다음 노드, 보상은 QGeo 알고리즘에 따라 정의된 앞의 서술된 보상 함수(reward function)의 값, s_t+1은 observation을 통해 받아온 다음 노드인 것을 특징으로 하는 애드혹 라우팅 강화학습 시스템
10 10
제 1 항에 있어서,상기 네트워크 시뮬레이터는,상기 각 이동체의 이동과 통신에 무작위 에러를 포함시켜 실제 전술 시행 환경의 변칙성을 반영하는 것을 특징으로 하는 애드혹 라우팅 강화학습 시스템
11 11
제 5 항에 있어서,상기 강화학습 에이전트는, 실제 환경에서 사전 정의된 이동성을 기반으로 이동하는 복수의 이동체 각각에 대해 특정시점에서의 라우팅을 업데이트가 완료된 상기 q-table을 기반으로 실행하는 애드혹 라우팅 강화학습 시스템
12 12
제 1 항에 있어서,상기 사전 정의된 이동성은,무인 항공기의 군집 비행 시나리오 및 전사 시 무인 항공기의 비행 미션 중 적어도 하나로 정의되는 것을 특징으로 하는 애드혹 라우팅 강화학습 시스템
13 13
강화학습 모듈이 복수의 이동체에 대한 사전 이동성이 정의된 시나리오를 기반으로 상기 복수의 이동체 각각의 통신 시뮬레이션 환경을 구현하는 단계;상기 강화학습 모듈이 Q-learning의 보상 기댓값(q-value) 및 상기 보상 기댓값을 업데이트하여 저장하는 q-table을 설정하는 단계;상기 강화학습 모듈이 강화학습 에이전트를 학습시키기 위해, 상기 강화학습 에이전트에 랜덤한 행동을 실행시키면서 상기 q-table을 업데이트하는 단계; 및상기 강화학습 모듈이 상기 강화학습 에이전트로부터 추출된 액션을 기반으로 상기 Q-learning을 반복 수행하면서, 라우팅 종료 이벤트가 발생할 때까지 상기 q-table을 지속 업데이트하는 단계;를 포함하고,상기 액션은 상기 시뮬레이션 환경의 라우팅 경로에서 제1 노드의 다음 라우트인 제2 노드에 대한 선택인 것을 특징으로 하는 애드혹 라우팅 강화학습 방법
14 14
제 13 항에 있어서,상기 강화학습 모듈이 상기 보상 기댓값을 설정하는 단계는,상기 라우팅 경로에서 선택된 상기 제2 노드와 목적지에 대응하는 제3 노드까지의 거리가 가까워질수록, 상기 노드가 가지는 링크 에러(link error) 및 위치 에러(location error)가 작을수록 높은 보상이 제공되도록 설정하는 단계를 포함하는 것을 특징으로 하는 애드혹 라우팅 강화학습 방법
15 15
제 13 항에 있어서,상기 라우팅 종료 이벤트는,상기 제1 노드가 상기 라우팅 시 선택한 노드가 최종 목적지 노드와 같은 시점 또는 에러 혹은 더 이상 라우팅이 불가능함을 감지한 시점인 것을 특징으로 하는 애드혹 라우팅 강화학습 방법
16 16
제 13 항에 있어서,상기 q-table을 지속 업데이트하는 단계는,상기 라우팅 경로에서 제1 노드의 다음 라우트인 제2 노드를 선택하는 액션에 대응하는 상기 q-value를 수학식 1을 통해 업데이트하고,(수학식 1) 여기서, s_t는 current node, a_t는 action으로 판단된 다음 노드, 보상은 QGeo 알고리즘에 따라 정의된 앞의 서술된 보상 함수(reward function)의 값, s_t+1은 observation을 통해 받아온 다음 노드인 것을 특징으로 하는 애드혹 라우팅 강화학습 방법
17 17
제 13 항에 있어서,상기 통신 시뮬레이션 환경을 구현하는 단계는,상기 각 이동체의 이동과 통신에 무작위 에러를 포함시켜 실제 전술 시행 환경의 변칙성을 반영하고,상기 무작위 에러로서, 상기 각 드론에 대한 사전 이동성에 대응하는 포지션(position)에 조작된 일정량의 오차, 및 상기 통신에 포함된 링크 에러를 발생시키는 것을 특징으로 하는 애드혹 라우팅 강화학습 방법
18 18
제 13 항에 있어서,상기 강화학습 에이전트가 실제 환경에서 사전 정의된 이동성을 기반으로 이동하는 복수의 이동체 각각에 대해 특정시점에서의 라우팅을 업데이트가 완료된 상기 q-table을 기반으로 실행하는 애드혹 라우팅 강화학습 방법
19 19
컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체로서,상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면,강화학습 모듈이 복수의 이동체에 대한 사전 이동성이 정의된 시나리오를 기반으로 상기 복수의 이동체 각각의 통신 시뮬레이션 환경을 구현하는 단계;상기 강화학습 모듈이 Q-learning의 보상 기댓값(q-value) 및 상기 보상 기댓값을 업데이트하여 저장하는 q-table을 설정하는 단계;상기 강화학습 모듈이 강화학습 에이전트를 학습시키기 위해, 상기 강화학습 에이전트에 랜덤한 행동을 실행시키면서 상기 q-table을 업데이트하는 단계; 및상기 강화학습 모듈이 상기 강화학습 에이전트로부터 추출된 액션을 기반으로 상기 Q-learning을 반복 수행하면서, 라우팅 종료 이벤트가 발생할 때까지 상기 q-table을 지속 업데이트하는 단계;를 포함하고,상기 액션은 상기 시뮬레이션 환경의 라우팅 경로에서 제1 노드의 다음 라우트인 제2 노드에 대한 선택인 것을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함하는, 컴퓨터 판독 가능한 기록매체
20 20
컴퓨터 판독 가능 기록매체에 저장된 컴퓨터 프로그램으로서,상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면,강화학습 모듈이 복수의 이동체에 대한 사전 이동성이 정의된 시나리오를 기반으로 상기 복수의 이동체 각각의 통신 시뮬레이션 환경을 구현하는 단계;상기 강화학습 모듈이 Q-learning의 보상 기댓값(q-value) 및 상기 보상 기댓값을 업데이트하여 저장하는 q-table을 설정하는 단계;상기 강화학습 모듈이 강화학습 에이전트를 학습시키기 위해, 상기 강화학습 에이전트에 랜덤한 행동을 실행시키면서 상기 q-table을 업데이트하는 단계; 및상기 강화학습 모듈이 상기 강화학습 에이전트로부터 추출된 액션을 기반으로 상기 Q-learning을 반복 수행하면서, 라우팅 종료 이벤트가 발생할 때까지 상기 q-table을 지속 업데이트하는 단계;를 포함하고,상기 액션은 상기 시뮬레이션 환경의 라우팅 경로에서 제1 노드의 다음 라우트인 제2 노드에 대한 선택인 것을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함하는, 컴퓨터 프로그램
지정국 정보가 없습니다
패밀리정보가 없습니다
국가 R&D 정보가 없습니다.