1 |
1
서로 다른 3차원 위치에서 복수의 마커를 부착한 대상자의 동작을 촬영하여 대상자의 동작 영상을 생성하는 복수의 카메라와 상기 복수의 마커를 통해 상기 대상자의 동작에 따른 인체 관절 각도 정보를 생성하는 광학식 동작 분석 장치를 포함하는 제1 학습 데이터 생성부;서로 다른 3차원 위치에서 전자 각도계를 부착한 대상자의 동작을 촬영하여 대상자의 동작 영상을 생성하는 복수의 카메라와 상기 전자 각도계를 통해 상기 대상자의 동작에 따른 인체 관절 각도 정보를 생성하는 전자 각도 분석 장치를 포함하는 제2 학습 데이터 생성부;상기 제1 학습 데이터 생성부와 상기 제2 학습 데이터 생성부로부터 각각 제공되는 동작 영상을 취합하여 입력 데이터를 구성하고, 상기 제1 학습 데이터 생성부와 상기 제2 학습 데이터 생성부로부터 각각 제공되는 인체 관절 각도 정보를 취합하여 출력 데이터를 구성하며, 상기 입력 데이터와 상기 입력 데이터와 대응되는 출력 데이터를 매핑하여 학습 데이터 세트를 생성하는 학습 데이터 세트 구성부;상기 학습 데이터 세트를 이용하여 대상자의 동작 영상에 따른 인체 관절 각도 정보를 예측하는 예측 모델을 학습하는 모델 학습부; 및상기 학습된 예측 모델을 이용하여 새로운 대상자의 동작 영상에 기초하여 대상자의 인체 관절 각도 정보를 예측하는 관절 각도 예측부를 포함하는, 2차원 영상을 이용한 3차원 인체 관절 각도 예측 시스템
|
2 |
2
제1 항에 있어서,상기 인체 관절 각도 정보는 상기 대상자의 발목, 무릎, 고관절, 팔꿈치 및 몸통 중 적어도 하나의 3차원 각도와 상기 대상자의 발목, 무릎, 고관절, 팔꿈치 및 몸통 중 적어도 하나의 3차원 각속도를 포함하고, 상기 예측 모델은,대상자의 동작 영상에 따른 대상자의 발목, 무릎, 고관절, 팔꿈치 및 몸통 중 적어도 하나의 3차원 관절 각도를 예측하고, 대상자의 동작 영상에 따른 대상자의 발목, 무릎, 고관절, 팔꿈치 및 몸통 중 적어도 하나의 3차원 관절 각도를 예측하도록 구축되는, 2차원 영상을 이용한 3차원 인체 관절 각도 예측 시스템
|
3 |
3
제2 항에 있어서,상기 대상자의 동작 영상은, 일반 평지에서 대상자가 보행한 보행 영상;트레드밀에서 대상자가 보행한 트레드밀 보행 영상;대상자가 운동 동작을 수행한 운동 동작 영상; 및일상 생활에서 발생하는 동작을 대상자가 수행한 일상 생활 동작 영상 중 적어도 하나를 포함하는, 2차원 영상을 이용한 3차원 인체 관절 각도 예측 시스템
|
4 |
4
제1 항에 있어서,상기 학습 데이터 세트 구성부는, YOLO 알고리즘을 적용하여, 동작 영상에서 대상자를 추적하여 경계 박스를 생성하고, 생성된 경계 박스를 기반으로 영상에서 대상자를 추출한 뒤, 일정 크기로 동작 영상의 사이즈를 조정하는 전처리를 더 수행하는 것을 특징으로 하는, 2차원 영상을 이용한 3차원 인체 관절 각도 예측 시스템
|
5 |
5
제1 항에 있어서, 상기 예측 모델은 딥 러닝을 통해 구축되는 것을 특징으로 하는 2차원 영상을 이용한 3차원 인체 관절 각도 예측 시스템
|
6 |
6
제1 항에 있어서, 상기 전자 각도계는 대상자가 입고 있는 복장에 의해 가려져 외부로 노출되지 않는, 2차원 영상을 이용한 3차원 인체 관절 각도 예측 시스템
|
7 |
7
2차원 영상을 이용한 3차원 인체 관절 각도 예측 시스템에서 수행되는 2차원 영상을 이용한 3차원 인체 관절 각도 예측 방법에 있어서, 상기 방법은: 예측 모델을 구축하는 단계;대상자의 동작 영상을 획득하는 단계; 및상기 학습된 예측 모델을 이용하여 대상자의 인체 관절 각도 정보를 예측하는 단계를 포함하되, 상기 예측 모델을 구축하는 단계는, 서로 다른 3차원 위치에서 대상자의 동작을 촬영하여 대상자의 동작 영상을 생성하고, 상기 대상자에게 부착된 복수의 마커를 통해 상기 대상자의 동작에 따른 인체 관절 각도 정보를 생성하는 제1 단계;서로 다른 3차원 위치에서 대상자의 동작을 촬영하여 대상자의 동작 영상을 생성하고, 상기 대상자에게 부착된 전자 각도계를 통해 상기 대상자의 동작에 따른 인체 관절 각도 정보를 생성하는 제2 단계;상기 제1 단계 및 상기 제2 단계를 통해 각각 생성된 동작 영상을 취합하여 입력 데이터를 구성하고, 상기 제1 단계 및 상기 제2 단계를 통해 각각 생성된 인체 관절 각도 정보를 취합하여 출력 데이터를 구성하며, 상기 입력 데이터와 상기 입력 데이터와 대응되는 출력 데이터를 매핑하여 학습 데이터 세트를 생성하는 제3 단계; 및상기 학습 데이터 세트를 이용하여 대상자의 동작 영상에 따른 인체 관절 각도 정보를 예측하는 예측 모델을 학습하는 제4 단계를 포함하는, 2차원 영상을 이용한 3차원 인체 관절 각도 예측 방법
|
8 |
8
제7 항에 있어서,상기 인체 관절 각도 정보는 상기 대상자의 발목, 무릎, 고관절, 팔꿈치 및 몸통 중 적어도 하나의 3차원 각도와 상기 대상자의 발목, 무릎, 고관절, 팔꿈치 및 몸통 중 적어도 하나의 3차원 각속도를 포함하고, 상기 예측 모델은 대상자의 동작 영상에 따른 대상자의 발목, 무릎, 고관절, 팔꿈치 및 몸통 중 적어도 하나의 3차원 관절 각도를 예측하고, 대상자의 동작 영상에 따른 대상자의 발목, 무릎, 고관절, 팔꿈치 및 몸통 중 적어도 하나의 3차원 관절 각도를 예측하도록 구축되는, 2차원 영상을 이용한 3차원 인체 관절 각도 예측 방법
|
9 |
9
제8 항에 있어서,상기 대상자의 동작 영상은, 일반 평지에서 대상자가 보행한 보행 영상;트레드밀에서 대상자가 보행한 트레드밀 보행 영상;대상자가 운동 동작을 수행한 운동 동작 영상; 및일상 생활에서 발생하는 동작을 대상자가 수행한 일상 생활 동작 영상 중 적어도 하나를 포함하는, 2차원 영상을 이용한 3차원 인체 관절 각도 예측 방법
|
10 |
10
제7 항에 있어서, 상기 제3 단계는, YOLO 알고리즘을 적용하여, 동작 영상에서 대상자를 추적하여 경계 박스를 생성하고, 생성된 경계 박스를 기반으로 영상에서 대상자를 추출한 뒤, 일정 크기로 동작 영상의 사이즈를 조정하는 전처리를 더 수행하는 것을 포함하는, 2차원 영상을 이용한 3차원 인체 관절 각도 예측 방법
|
11 |
11
제7 항에 있어서,상기 예측 모델은 딥 러닝을 통해 구축되는 것을 특징으로 하는 2차원 영상을 이용한 3차원 인체 관절 각도 예측 방법
|
12 |
12
제7 항에 있어서, 상기 전자 각도계는 대상자가 입고 있는 복장에 의해 가려져 외부로 노출되지 않는, 2차원 영상을 이용한 3차원 인체 관절 각도 예측 방법
|
13 |
13
컴퓨팅 장치에 의해 판독가능하고, 상기 컴퓨팅 장치에 의해 동작 가능한 프로그램 명령어를 저장하는 컴퓨터 판독가능 기록매체로서, 상기 프로그램 명령어가 상기 컴퓨팅 장치의 프로세서에 의해 실행되는 경우 상기 프로세서가 제7항 내지 제12항 중 어느 하나의 항에 따른 2차원 영상을 이용한 3차원 인체 관절 각도 예측 방법을 수행하게 하는 컴퓨터 판독가능 기록매체
|