맞춤기술찾기

이전대상기술

퍼지 Q-러닝 기반 적응형 어드미턴스 제어 방법, 이를 수행하는 장치 및 컴퓨터 프로그램

  • 기술번호 : KST2023007623
  • 담당센터 : 서울서부기술혁신센터
  • 전화번호 : 02-6124-6930
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 본 발명의 바람직한 실시예에 따른 퍼지 Q-러닝 기반 적응형 어드미턴스 제어 방법, 이를 수행하는 장치 및 컴퓨터 프로그램은, 인간과 로봇이 상시 접촉 상태에 있는 착용형 로봇에서 민감하면서도 안전한 협업(collaboration)을 보장하기 위해 퍼지 Q-러닝(fuzzy Q-learning)을 기반으로 어드미턴스(admittance)를 적응적으로 조절함으로써, 민감하면서도 안전한 협업 제어가 가능하고, 부하 무게에 따른 로봇의 동역학 변화에 대응할 수 있으며, 사용자별 서로 다른 인체 특성에 맞게 어드미턴스 매개변수를 최적화할 수 있고, 또한, 본 발명은 높은 주파수 분해능을 가지고, 낮은 연산량을 통해 인간-로봇 협업 상태의 인식 시간을 보장할 수 있다.
Int. CL B25J 9/16 (2006.01.01) B25J 9/00 (2006.01.01)
CPC B25J 9/163(2013.01) B25J 9/1638(2013.01) B25J 9/161(2013.01) B25J 9/0006(2013.01)
출원번호/일자 1020220026958 (2022.03.02)
출원인 광운대학교 산학협력단
등록번호/일자
공개번호/일자 10-2023-0129838 (2023.09.11) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 공개
심사진행상태 수리
심판사항
구분 국내출원/신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2022.03.02)
심사청구항수 13

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 광운대학교 산학협력단 대한민국 서울특별시 노원구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 김효민 서울특별시 금천구
2 양우성 서울특별시 구로구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 특허법인우인 대한민국 서울특별시 강남구 역삼로 ***, *층(역삼동, 중평빌딩)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2022.03.02 수리 (Accepted) 1-1-2022-0231513-14
2 선행기술조사의뢰서
Request for Prior Art Search
2023.07.18 수리 (Accepted) 9-1-9999-9999999-89
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
인간과 로봇이 상시 접촉 상태에 있는 착용형 로봇에서 퍼지 Q-러닝(fuzzy Q-learning)을 기반으로 어드미턴스(admittance)를 적응적으로 조절하는 방법으로서,상호 작용 힘 및 부하 무게를 획득하는 단계;저역 통과 필터(low-pass filter) 및 고역 통과 필터(high-pass filter)를 이용하여 상기 상호 작용 힘을 기반으로 인간-로봇 협업 상태값을 획득하는 단계;상기 인간-로봇 협업 상태값, 상기 상호 작용 힘 및 상기 부하 무게를 입력 데이터로 하고, 상기 어드미턴스의 매개변수의 값을 출력 데이터로 하며, 상기 퍼지 Q-러닝을 기반으로 하는 어드미턴스 매개변수 조절 모델을 이용하여, 상기 인간-로봇 협업 상태값, 상기 상호 작용 힘 및 상기 부하 무게에 대응되는 어드미턴스 매개변수 제어값을 획득하는 단계; 및상기 어드미턴스 매개변수 제어값을 기반으로 상기 어드미턴스의 매개변수를 조절하는 단계;를 포함하는 퍼지 Q-러닝 기반 적응형 어드미턴스 제어 방법
2 2
제1항에서,상기 어드미턴스 매개변수 조절 모델은,상기 인간-로봇 협업 상태값, 상기 상호 작용 힘 및 상기 부하 무게를 포함하는 상기 입력 데이터를 기반으로 상기 입력 데이터에 대응되는 상태(state)를 획득하고, 상기 입력 데이터에 대응되는 상태 및 퍼지 규칙(fuzzy rule)을 기반으로 상기 입력 데이터에 대응되는 상기 어드미턴스 매개변수 제어값을 나타내는 동작(action)을 획득하며, 상기 동작에 따른 상기 어드미턴스의 매개변수 조절 이후에 획득되는 상기 상호 작용 힘을 기반으로 획득된 상기 인간-로봇 협업 상태값을 이용하여 상기 동작에 대응되는 보상(reward)을 획득하고, 상기 보상을 기반으로 상기 퍼지 규칙을 업데이트하는,퍼지 Q-러닝 기반 적응형 어드미턴스 제어 방법
3 3
제2항에서,상기 퍼지 규칙의 초기값은,상기 인간-로봇 협업 상태값, 상기 상호 작용 힘 및 상기 부하 무게와, 상기 어드미턴스의 매개변수의 값 간의 상호 관계에 대한 전문가 지식을 기반으로 결정되는,퍼지 Q-러닝 기반 적응형 어드미턴스 제어 방법
4 4
제2항에서,상기 인간-로봇 협업 상태값 획득 단계는,상기 고역 통과 필터를 통과한 상기 상호 작용 힘의 유클리드 놈 값을 상기 저역 통과 필터를 통과한 상기 상호 작용 힘의 유클리드 놈 값으로 나누어, 상기 인간-로봇 협업 상태값을 획득하는데 이용되는 중간값을 획득하는 단계;를 포함하는 퍼지 Q-러닝 기반 적응형 어드미턴스 제어 방법
5 5
제4항에서,상기 중간값 획득 단계는,상기 저역 통과 필터를 통과한 상기 상호 작용 힘의 유클리드 놈 값이 미리 설정된 기준값 이상이면, 상기 고역 통과 필터를 통과한 상기 상호 작용 힘의 유클리드 놈 값을 상기 저역 통과 필터를 통과한 상기 상호 작용 힘의 유클리드 놈 값으로 나눈 값을 상기 중간값으로 획득하고,상기 저역 통과 필터를 통과한 상기 상호 작용 힘의 유클리드 놈 값이 상기 미리 설정된 기준값 미만이면, 0을 상기 중간값으로 획득하는 것으로 이루어지는,퍼지 Q-러닝 기반 적응형 어드미턴스 제어 방법
6 6
제4항에서,상기 인간-로봇 협업 상태값 획득 단계는,상기 중간값을 평활화(smoothing) 처리하는 단계;평활화 처리된 상기 중간값이 미리 설정된 하한(lower limit)과 미리 설정된 상한(upper limit) 사이의 값이 되도록 포화(saturation) 처리하는 단계; 및포화 처리된 상기 중간값을 상기 인간-로봇 협업 상태값으로 획득하는 단계;를 더 포함하는 퍼지 Q-러닝 기반 적응형 어드미턴스 제어 방법
7 7
제4항에서,상기 동작에 대응되는 상기 보상은,미리 설정된 기준 크기와 미리 설정된 기준 주파수에 대응되는 기준 보상값 및 상기 동작에 따른 상기 어드미턴스의 매개변수 조절 이후에 획득되는 상기 상호 작용 힘에 대응되는 보상 중간값을 이용하여 획득되며,상기 보상 중간값은,상기 동작에 따른 상기 어드미턴스의 매개변수 조절 이후에 획득되는 상기 상호 작용 힘, 미리 설정된 가중치 변수 및 상기 동작에 따른 상기 어드미턴스의 매개변수 조절 이후에 획득되는 상기 상호 작용 힘을 기반으로 획득된 상기 중간값을 이용하여 획득되는,퍼지 Q-러닝 기반 적응형 어드미턴스 제어 방법
8 8
제7항에서,상기 동작에 대응되는 상기 보상은,상기 기준 보상값에서 상기 보상 중간값을 차감하여 획득되며,상기 보상 중간값은,상기 동작에 따른 상기 어드미턴스의 매개변수 조절 이후에 획득되는 상기 상호 작용 힘과 상기 미리 설정된 가중치 변수를 곱한 값의 유클리드 놈 값에 상기 중간값을 곱하고, 곱한 값을 평활화 처리하여 획득되는,퍼지 Q-러닝 기반 적응형 어드미턴스 제어 방법
9 9
제1항에서,상기 저역 통과 필터 및 상기 고역 통과 필터는,IIR(infinite impulse response) 2차 버터워스(Butterworth) 필터로 이루어지며,상기 IIR 2차 버터워스 필터의 차단 주파수(cutoff frequency)는,인간과 로봇 사이의 협업 상태 인식을 위한 관심 영역으로 미리 설정된 동작 주파수를 기반으로 설정되는,퍼지 Q-러닝 기반 적응형 어드미턴스 제어 방법
10 10
제1항 내지 제9항 중 어느 한 항에 기재된 퍼지 Q-러닝 기반 적응형 어드미턴스 제어 방법을 컴퓨터에서 실행시키기 위하여 컴퓨터 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램
11 11
인간과 로봇이 상시 접촉 상태에 있는 착용형 로봇에서 퍼지 Q-러닝(fuzzy Q-learning)을 기반으로 어드미턴스(admittance)를 적응적으로 조절하는 장치로서,상기 퍼지 Q-러닝을 기반으로 상기 어드미턴스를 적응적으로 조절하기 위한 하나 이상의 프로그램을 저장하는 메모리; 및상기 메모리에 저장된 상기 하나 이상의 프로그램에 따라 상기 퍼지 Q-러닝을 기반으로 상기 어드미턴스를 적응적으로 조절하기 위한 동작을 수행하는 하나 이상의 프로세서;를 포함하며,상기 프로세서는,상호 작용 힘 및 부하 무게를 획득하고,저역 통과 필터(low-pass filter) 및 고역 통과 필터(high-pass filter)를 이용하여 상기 상호 작용 힘을 기반으로 인간-로봇 협업 상태값을 획득하며,상기 인간-로봇 협업 상태값, 상기 상호 작용 힘 및 상기 부하 무게를 입력 데이터로 하고, 상기 어드미턴스의 매개변수의 값을 출력 데이터로 하며, 상기 퍼지 Q-러닝을 기반으로 하는 어드미턴스 매개변수 조절 모델을 이용하여, 상기 인간-로봇 협업 상태값, 상기 상호 작용 힘 및 상기 부하 무게에 대응되는 어드미턴스 매개변수 제어값을 획득하고,상기 어드미턴스 매개변수 제어값을 기반으로 상기 어드미턴스의 매개변수를 조절하는,퍼지 Q-러닝 기반 적응형 어드미턴스 제어 장치
12 12
제11항에서,상기 어드미턴스 매개변수 조절 모델은,상기 인간-로봇 협업 상태값, 상기 상호 작용 힘 및 상기 부하 무게를 포함하는 상기 입력 데이터를 기반으로 상기 입력 데이터에 대응되는 상태(state)를 획득하고, 상기 입력 데이터에 대응되는 상태 및 퍼지 규칙(fuzzy rule)을 기반으로 상기 입력 데이터에 대응되는 상기 어드미턴스 매개변수 제어값을 나타내는 동작(action)을 획득하며, 상기 동작에 따른 상기 어드미턴스의 매개변수 조절 이후에 획득되는 상기 상호 작용 힘을 기반으로 획득된 상기 인간-로봇 협업 상태값을 이용하여 상기 동작에 대응되는 보상(reward)을 획득하고, 상기 보상을 기반으로 상기 퍼지 규칙을 업데이트하는,퍼지 Q-러닝 기반 적응형 어드미턴스 제어 장치
13 13
제12항에서,상기 퍼지 규칙의 초기값은,상기 인간-로봇 협업 상태값, 상기 상호 작용 힘 및 상기 부하 무게와, 상기 어드미턴스의 매개변수의 값 간의 상호 관계에 대한 전문가 지식을 기반으로 결정되는,퍼지 Q-러닝 기반 적응형 어드미턴스 제어 장치
지정국 정보가 없습니다
패밀리정보가 없습니다
국가 R&D 정보가 없습니다.