요약 | 본 발명은 행위 인식 장치 및 방법에 관한 것으로, 더욱 상세하게는 영상 내에 존재하는 대상 검출 및 추적 정보를 이용하여 대상의 복수의 행위를 인식하는 행위 인식 장치 및 방법에 관한 것이다. |
---|---|
Int. CL | G06K 9/00 (2006.01.01) G06F 3/01 (2006.01.01) |
CPC | G06K 9/00355(2013.01) G06K 9/00355(2013.01) G06K 9/00355(2013.01) G06K 9/00355(2013.01) |
출원번호/일자 | 1020160141360 (2016.10.27) |
출원인 | 동국대학교 산학협력단 |
등록번호/일자 | 10-1771655-0000 (2017.08.21) |
공개번호/일자 | |
공고번호/일자 | (20170905) 문서열기 |
국제출원번호/일자 | |
국제공개번호/일자 | |
우선권정보 | |
법적상태 | 등록 |
심사진행상태 | 수리 |
심판사항 | |
구분 | 신규 |
원출원번호/일자 | |
관련 출원번호 | |
심사청구여부/일자 | Y (2016.10.27) |
심사청구항수 | 16 |
번호 | 이름 | 국적 | 주소 |
---|---|---|---|
1 | 동국대학교 산학협력단 | 대한민국 | 서울특별시 중구 |
번호 | 이름 | 국적 | 주소 |
---|---|---|---|
1 | 박강령 | 대한민국 | 서울특별시 강남구 |
2 | 홍형길 | 대한민국 | 서울특별시 양천구 |
3 | 간바야르 | 몽고 | 대전광역시 서구 |
번호 | 이름 | 국적 | 주소 |
---|---|---|---|
1 | 특허법인이지 | 대한민국 | 서울특별시 금천구 가산디지털*로 ***(가산동, KCC웰츠밸리) ***-*** |
번호 | 이름 | 국적 | 주소 |
---|---|---|---|
1 | 동국대학교 산학협력단 | 서울특별시 중구 |
번호 | 서류명 | 접수/발송일자 | 처리상태 | 접수/발송번호 |
---|---|---|---|---|
1 | [특허출원]특허출원서 [Patent Application] Patent Application |
2016.10.27 | 수리 (Accepted) | 1-1-2016-1049515-62 |
2 | 의견제출통지서 Notification of reason for refusal |
2017.02.14 | 발송처리완료 (Completion of Transmission) | 9-5-2017-0113082-87 |
3 | [거절이유 등 통지에 따른 의견]의견(답변, 소명)서 [Opinion according to the Notification of Reasons for Refusal] Written Opinion(Written Reply, Written Substantiation) |
2017.04.14 | 수리 (Accepted) | 1-1-2017-0368674-62 |
4 | [명세서등 보정]보정서 [Amendment to Description, etc.] Amendment |
2017.04.14 | 보정승인간주 (Regarded as an acceptance of amendment) | 1-1-2017-0368714-01 |
5 | 등록결정서 Decision to grant |
2017.08.16 | 발송처리완료 (Completion of Transmission) | 9-5-2017-0566968-15 |
6 | 출원인정보변경(경정)신고서 Notification of change of applicant's information |
2019.08.16 | 수리 (Accepted) | 4-1-2019-5163486-33 |
번호 | 청구항 |
---|---|
1 |
1 삭제 |
2 |
2 삭제 |
3 |
3 행위 인식 장치에 있어서,입력된 영상에서 대상체 정보를 생성하는 대상체 정보 생성부;상기 대상체 정보를 이용하여 대상체 속도, 대상체 비율, 대상체 배경 및 전경 비율을 포함하는 제1 특징을 추출하는 제1 특징 추출부;상기 제1 특징을 이용하여 눕기, 앉기, 서기, 걷기, 뛰기 중 어느 하나의 행위를 인식하는 제1 행위 인식부;상기 대상체 정보를 이용하여 손발 위치, 팔다리 비율 및 각도 중 적어도 하나를 포함하는 제2 특징을 추출하는 제2 특징 추출부; 상기 제2 특징을 이용하여 손 흔들기, 발차기, 주먹 찌르기 중 어느 하나의 행위를 인식하는 제2 행위 인식부; 및복수의 대상들에 대한 대상 행위 인식 결과가 있을 때 복수의 대상 간의 상호간 행위의 유무를 판단하는 대상 상호 행위 인식부를 포함하되,상기 대상 상호 행위 인식부는 복수의 대상 행위 인식 결과 중 걷기나 뛰기가 있는 경우 대상의 행위가 상호 간의 행위가 있었다고 판단하고, 복수의 대상 사이의 거리 변화 정보가 미리 정의된 거리 변화 임계치보다 큰 경우 상호 간의 행위를 멀어지기로 판단하고, 작은 경우 접근하기로 판단하는 행위 인식 장치 |
4 |
4 행위 인식 장치에 있어서,입력된 영상에서 대상체 정보를 생성하는 대상체 정보 생성부;상기 대상체 정보를 이용하여 대상체 속도, 대상체 비율, 대상체 배경 및 전경 비율을 포함하는 제1 특징을 추출하는 제1 특징 추출부;상기 제1 특징을 이용하여 눕기, 앉기, 서기, 걷기, 뛰기 중 어느 하나의 행위를 인식하는 제1 행위 인식부;상기 대상체 정보를 이용하여 손발 위치, 팔다리 비율 및 각도 중 적어도 하나를 포함하는 제2 특징을 추출하는 제2 특징 추출부; 상기 제2 특징을 이용하여 손 흔들기, 발차기, 주먹 찌르기 중 어느 하나의 행위를 인식하는 제2 행위 인식부를 포함하되,상기 대상체 정보 생성부는 상기 입력된 영상이 가시광선 영상이면, 가시광선 배경 영상을 생성하고, 생성한 가시광선 배경 영상과 입력된 가시광선 영상의 차영상을 이용하여 가시광선 대상 후보 영역을 검출한 후, 가시광선 대상 후보 영역에서 그림자 영역 및 노이즈를 제거하여 최종적인 가시광선 대상 영역을 검출하는 대상체 영역 검출부를 포함하는 행위 인식 장치 |
5 |
5 제4항에 있어서, 상기 대상체 영역 검출부는상기 입력된 영상이 열화상 영상이면, 열화상 배경 영상을 생성하고, 생성한 열화상 배경영상과 입력된 열화상 영상의 차 영상을 이용하여 열화상 대상 후보영역을 검출한 후, 상기 열화상 대상 후보영역에서 노이즈를 제거하고, 열화상 대상 후보영역을 보정하여 최종적인 열화상 대상 영역을 검출하는 행위 인식 장치 |
6 |
6 제4항에 있어서, 상기 대상체 정보 생성부는 가시광선 대상 영역 및 열화상 대상 영역을 결합하여 결합 대상 영역 정보를 생성하고, 상기 입력된 영상의 입력 시간이나 각 영상의 품질을 확인하여 각 영상에서 검출된 대상 영역을 선택적으로 활용하거나 가중치를 다르게 하여 결합함으로써 결합된 대상 영역을 가시광선 및 열화상 영상 내에 표현하는 대상 영역 결합부를 더 포함하는 행위 인식 장치 |
7 |
7 제4항에 있어서, 상기 대상체 정보 생성부는가시광선 대상 영역 또는 열화상 대상 영역 정보를 바탕으로 대상을 추적하여 N개의 프레임마다 대상 영역의 세로 길이(HB)와 가로 길이(WB)를 포함하는 대상체 정보를 생성하는 대상 추적부를 더 포함하는 행위 인식 장치 |
8 |
8 행위 인식 장치에 있어서,입력된 영상에서 대상체 정보를 생성하는 대상체 정보 생성부;상기 대상체 정보를 이용하여 대상체 속도, 대상체 비율, 대상체 배경 및 전경 비율을 포함하는 제1 특징을 추출하는 제1 특징 추출부;상기 제1 특징을 이용하여 눕기, 앉기, 서기, 걷기, 뛰기 중 어느 하나의 행위를 인식하는 제1 행위 인식부;상기 대상체 정보를 이용하여 손발 위치, 팔다리 비율 및 각도 중 적어도 하나를 포함하는 제2 특징을 추출하는 제2 특징 추출부; 상기 제2 특징을 이용하여 손 흔들기, 발차기, 주먹 찌르기 중 어느 하나의 행위를 인식하는 제2 행위 인식부를 포함하되,상기 제1 특징 추출부는 상기 대상체 정보에 포함된 대상 영역의 세로 길이(HB)와 가로 길이(WB)를 갖는 사각형의 중심점을 산출하고, N개의 프레임 마다 산출된 N개의 중심점을 1번째 중심점 X축 좌표 위치와 N번째 중심점 X축 좌표 위치와의 변위를 바탕으로 대상체 속도(SB)를 산출하는 대상체 속도 산출부;상기 대상 영역의 세로 길이(HB)와 가로 길이(WB)를 갖는 사각형 내의 전경 크기(BB) 및 배경 크기(FB)를 생성하여, 전경 크기를 배경 크기로 나누어 배경 및 전경 비율(Rs)을 산출하는 배경 및 전경 비율 산출부; 및상기 대상 영역의 세로 길이(HB)를 상기 가로 길이(WB)로 나누어 대상체 비율(RB)을 산출하는 대상체 비율 산출부를 포함하는 행위 인식 장치 |
9 |
9 행위 인식 장치에 있어서,입력된 영상에서 대상체 정보를 생성하는 대상체 정보 생성부;상기 대상체 정보를 이용하여 대상체 속도, 대상체 비율, 대상체 배경 및 전경 비율을 포함하는 제1 특징을 추출하는 제1 특징 추출부;상기 제1 특징을 이용하여 눕기, 앉기, 서기, 걷기, 뛰기 중 어느 하나의 행위를 인식하는 제1 행위 인식부;상기 대상체 정보를 이용하여 손발 위치, 팔다리 비율 및 각도 중 적어도 하나를 포함하는 제2 특징을 추출하는 제2 특징 추출부; 상기 제2 특징을 이용하여 손 흔들기, 발차기, 주먹 찌르기 중 어느 하나의 행위를 인식하는 제2 행위 인식부를 포함하되,상기 제1 행위 인식부는 이전 프레임에서 대상체의 행위 인식 결과가 눕기, 앉기, 서기, 걷기 및 뛰기 중 어느 하나의 행위로 인식될 예측 확률을 산출하는 제1 행위 예측부;상기 제1 특징 추출부에서 추출된 대상체 속도(SB), 대상체 비율(RB), 배경 및 전경 비율(Rs)을 이용하여 현재 프레임에서 대상체의 행위가 눕기, 앉기, 서기, 걷기 및 뛰기 중 어느 하나의 행위로 분류될 퍼지 확률을 산출하는 제1 퍼지 분류부; 및 상기 제1 행위 예측부에서 산출된 예측 확률과 상기 제1 퍼지 분류부에서 산출된 퍼지 확률을 결합하여 최종적인 제1 행위를 판단하는 제2 퍼지 분류부를 포함하는 행위 인식 장치 |
10 |
10 삭제 |
11 |
11 행위 인식 장치에 있어서,입력된 영상에서 대상체 정보를 생성하는 대상체 정보 생성부;상기 대상체 정보를 이용하여 대상체 속도, 대상체 비율, 대상체 배경 및 전경 비율을 포함하는 제1 특징을 추출하는 제1 특징 추출부;상기 제1 특징을 이용하여 눕기, 앉기, 서기, 걷기, 뛰기 중 어느 하나의 행위를 인식하는 제1 행위 인식부;상기 대상체 정보를 이용하여 손발 위치, 팔다리 비율 및 각도 중 적어도 하나를 포함하는 제2 특징을 추출하는 제2 특징 추출부; 상기 제2 특징을 이용하여 손 흔들기, 발차기, 주먹 찌르기 중 어느 하나의 행위를 인식하는 제2 행위 인식부를 포함하되,상기 제2 특징 추출부는 상기 손발 위치 산출부에서 손 또는 발의 끝 점이 산출되면, 손 또는 발의 끝 점을 이용하여 X축의 길이 및 Y축의 길이를 산출하고, Y축의 길이를 X축의 길이로 나누어 팔다리 비율을 산출하는 팔다리 비율 산출부; 및N개의 프레임에서 대상 영상들 중 일부 P개의 영상들에서 손의 X축 위치 좌표의 변위 정보를 누적하여 각도를 산출하는 각도 산출부를 더 포함하는 행위 인식 장치 |
12 |
12 행위 인식 장치에 있어서,입력된 영상에서 대상체 정보를 생성하는 대상체 정보 생성부;상기 대상체 정보를 이용하여 대상체 속도, 대상체 비율, 대상체 배경 및 전경 비율을 포함하는 제1 특징을 추출하는 제1 특징 추출부;상기 제1 특징을 이용하여 눕기, 앉기, 서기, 걷기, 뛰기 중 어느 하나의 행위를 인식하는 제1 행위 인식부;상기 대상체 정보를 이용하여 손발 위치, 팔다리 비율 및 각도 중 적어도 하나를 포함하는 제2 특징을 추출하는 제2 특징 추출부; 상기 제2 특징을 이용하여 손 흔들기, 발차기, 주먹 찌르기 중 어느 하나의 행위를 인식하는 제2 행위 인식부를 포함하되,제2 행위 인식부는이전 프레임(t-n)에서 대상체의 행위 인식 결과가 손 흔들기, 주먹 찌르기, 발차기 중 어느 하나의 행위로 인식될 예측 확률을 산출하는 제2 행위 예측부;상기 제2 행위 예측부에서 산출된 예측 확률과 제2 특징 추출부에서 산출된 팔다리 비율 및 각도를 이용하여 현재 프레임에서 대상체의 행위를 손 흔들기, 주먹 찌르기 및 발차기 중 어느 하나의 행위로 인식하는 제3 퍼지 분류부를 포함하는 행위 인식 장치 |
13 |
13 삭제 |
14 |
14 행위 인식 방법에 있어서,대상체 정보를 생성하는 단계;상기 대상체 정보를 이용하여 대상체 속도, 대상체 비율, 대상체 배경 및 전경 비율을 포함하는 제1 특징 추출 단계;상기 제1 특징을 이용하여 눕기, 앉기, 서기, 걷기, 뛰기 중 어느 하나의 행위를 인식하는 제1 행위 인식 단계;상기 대상체 정보를 이용하여 대상체의 손발 위치, 팔다리 비율 및 각도 중 적어도 하나를 포함하는 제2 특징을 추출하는 제2 특징 추출 단계; 및상기 제2 특징을 이용하여 손 흔들기, 발차기, 주먹 찌르기 중 어느 하나의 행위를 인식하는 제2 행위 인식 단계를 포함하되,상기 대상체 정보를 생성하는 단계는입력된 영상의 배경 영상을 생성하고, 생성한 배경 영상과 입력된 영상의 차영상을 이용하여 대상 후보 영역을 검출한 후, 상기 대상 후보 영역에서 그림자 영역 및 노이즈를 제거하여 최종적인 대상 영역을 검출하는 행위 인식 방법 |
15 |
15 제14항에 있어서, 상기 대상체 정보를 생성하는 단계는N개의 프레임마다 대상 영역의 세로 길이(HB)와 가로 길이(WB)를 포함하여 대상체 정보를 생성하는 행위 인식 방법 |
16 |
16 행위 인식 방법에 있어서,대상체 정보를 생성하는 단계;상기 대상체 정보를 이용하여 대상체 속도, 대상체 비율, 대상체 배경 및 전경 비율을 포함하는 제1 특징 추출 단계;상기 제1 특징을 이용하여 눕기, 앉기, 서기, 걷기, 뛰기 중 어느 하나의 행위를 인식하는 제1 행위 인식 단계;상기 대상체 정보를 이용하여 대상체의 손발 위치, 팔다리 비율 및 각도 중 적어도 하나를 포함하는 제2 특징을 추출하는 제2 특징 추출 단계; 및상기 제2 특징을 이용하여 손 흔들기, 발차기, 주먹 찌르기 중 어느 하나의 행위를 인식하는 제2 행위 인식 단계를 포함하되,상기 제1 특징 추출 단계는상기 대상체 정보에 포함된 대상 영역의 세로 길이(HB)와 가로 길이(WB)를 갖는 사각형의 중심점을 산출하고, N개의 프레임 마다 산출된 N개의 중심점을 1번째 중심점 X축 좌표 위치와 N번째 중심점 X축 좌표 위치와의 변위를 바탕으로 대상체 속도(SB)를 산출하는 단계;상기 대상 영역의 세로 길이(HB)와 가로 길이(WB)를 갖는 사각형 내의 전경 크기(BB) 및 배경 크기(FB)를 생성하여, 전경 크기를 배경 크기로 나누어 배경 및 전경 비율(Rs)을 산출하는 단계; 및상기 대상 영역의 세로 길이(HB)를 상기 가로 길이(WB)로 나누어 대상체 비율(RB)을 산출하는 단계를 포함하는 행위 인식 방법 |
17 |
17 행위 인식 방법에 있어서,대상체 정보를 생성하는 단계;상기 대상체 정보를 이용하여 대상체 속도, 대상체 비율, 대상체 배경 및 전경 비율을 포함하는 제1 특징 추출 단계;상기 제1 특징을 이용하여 눕기, 앉기, 서기, 걷기, 뛰기 중 어느 하나의 행위를 인식하는 제1 행위 인식 단계;상기 대상체 정보를 이용하여 대상체의 손발 위치, 팔다리 비율 및 각도 중 적어도 하나를 포함하는 제2 특징을 추출하는 제2 특징 추출 단계; 및상기 제2 특징을 이용하여 손 흔들기, 발차기, 주먹 찌르기 중 어느 하나의 행위를 인식하는 제2 행위 인식 단계를 포함하되,상기 제1 행위 인식 단계는이전 프레임에서 대상체의 행위 인식 결과가 눕기, 앉기, 서기, 걷기 및 뛰기 중 어느 하나의 행위로 인식될 예측 확률을 산출하는 단계;상기 대상체 속도, 대상체 비율, 배경 및 전경 비율을 이용하여 현재 프레임에서 대상체의 행위가 눕기, 앉기, 서기, 걷기 및 뛰기 중 어느 하나의 행위로 분류될 퍼지 확률을 산출하는 단계; 및상기 이전 프레임에서 예측 확률과 상기 현재 프레임에서 퍼지 확률을 결합하여 최종적인 제1 행위를 판단하는 단계를 포함하는 행위 인식 방법 |
18 |
18 행위 인식 방법에 있어서,대상체 정보를 생성하는 단계;상기 대상체 정보를 이용하여 대상체 속도, 대상체 비율, 대상체 배경 및 전경 비율을 포함하는 제1 특징 추출 단계;상기 제1 특징을 이용하여 눕기, 앉기, 서기, 걷기, 뛰기 중 어느 하나의 행위를 인식하는 제1 행위 인식 단계;상기 대상체 정보를 이용하여 대상체의 손발 위치, 팔다리 비율 및 각도 중 적어도 하나를 포함하는 제2 특징을 추출하는 제2 특징 추출 단계; 및상기 제2 특징을 이용하여 손 흔들기, 발차기, 주먹 찌르기 중 어느 하나의 행위를 인식하는 제2 행위 인식 단계를 포함하되,상기 제2 특징 추출 단계는상기 대상체 정보를 기반으로 PbD (Project based Distance) 방법을 이용하여 N개의 프레임마다 대상체의 손 또는 발의 끝 점을 산출하는 단계;상기 손 또는 발의 끝 점이 산출되면, 손 또는 발의 끝 점을 이용하여 X축의 길이 및 Y축의 길이를 산출하고, Y축의 길이를 X축의 길이로 나누어 팔다리 비율을 산출하는 단계; 및N개의 프레임에서 대상 영상들 중 일부 P개의 영상들에서 손의 X축 위치 좌표의 변위 정보를 누적하여 각도를 산출하는 단계를 포함하는 행위 인식 방법 |
19 |
19 행위 인식 방법에 있어서,대상체 정보를 생성하는 단계;상기 대상체 정보를 이용하여 대상체 속도, 대상체 비율, 대상체 배경 및 전경 비율을 포함하는 제1 특징 추출 단계;상기 제1 특징을 이용하여 눕기, 앉기, 서기, 걷기, 뛰기 중 어느 하나의 행위를 인식하는 제1 행위 인식 단계;상기 대상체 정보를 이용하여 대상체의 손발 위치, 팔다리 비율 및 각도 중 적어도 하나를 포함하는 제2 특징을 추출하는 제2 특징 추출 단계; 및상기 제2 특징을 이용하여 손 흔들기, 발차기, 주먹 찌르기 중 어느 하나의 행위를 인식하는 제2 행위 인식 단계를 포함하되,상기 제2 행위 인식 단계는이전 프레임에서 대상체의 행위 인식 결과가 손 흔들기, 주먹 찌르기, 발차기 중 어느 하나의 행위로 인식될 예측 확률을 산출하는 단계; 및상기 이전 프레임에서 예측 확률과 상기 팔다리 비율 및 각도를 이용하여 현재 프레임에서 대상체의 행위를 손 흔들기, 주먹 찌르기, 발차기 중 어느 하나의 행위로 인식하는 단계를 포함하는 행위 인식 방법 |
20 |
20 제14항 내지 제19항 중 어느 하나의 영상의 행위 인식 방법을 실행하기 위하여 컴퓨터가 판독 가능한 기록매체에 기록된 컴퓨터 프로그램 |
지정국 정보가 없습니다 |
---|
패밀리정보가 없습니다 |
---|
순번 | 연구부처 | 주관기관 | 연구사업 | 연구과제 |
---|---|---|---|---|
1 | 교육부 | 동국대학교 산학협력단 | 이공학개인기초연구지원사업(기본) | 시선 위치, 눈 반응, 감정 및 행태 분석 기반 운전자 감성 인지 자동차 기술 개발[1/3] |
2 | 미래창조과학부 | 동국대학교 산학협력단 | 대학ICT연구센터육성지원사업 | 소환현실기반 콘텐츠 제작을 위한 실감형 인터랙션 NUI/NUX 플랫폼 기술 개발 [4/4] |
공개전문 정보가 없습니다 |
---|
특허 등록번호 | 10-1771655-0000 |
---|
표시번호 | 사항 |
---|---|
1 |
출원 연월일 : 20161027 출원 번호 : 1020160141360 공고 연월일 : 20170905 공고 번호 : 특허결정(심결)연월일 : 20170816 청구범위의 항수 : 16 유별 : G06K 9/00 발명의 명칭 : 행위 인식 장치 및 방법 존속기간(예정)만료일 : |
순위번호 | 사항 |
---|---|
1 |
(권리자) 동국대학교 산학협력단 서울특별시 중구... |
제 1 - 3 년분 | 금 액 | 334,500 원 | 2017년 08월 22일 | 납입 |
제 4 년분 | 금 액 | 196,000 원 | 2020년 08월 03일 | 납입 |
번호 | 서류명 | 접수/발송일자 | 처리상태 | 접수/발송번호 |
---|---|---|---|---|
1 | [특허출원]특허출원서 | 2016.10.27 | 수리 (Accepted) | 1-1-2016-1049515-62 |
2 | 의견제출통지서 | 2017.02.14 | 발송처리완료 (Completion of Transmission) | 9-5-2017-0113082-87 |
3 | [거절이유 등 통지에 따른 의견]의견(답변, 소명)서 | 2017.04.14 | 수리 (Accepted) | 1-1-2017-0368674-62 |
4 | [명세서등 보정]보정서 | 2017.04.14 | 보정승인간주 (Regarded as an acceptance of amendment) | 1-1-2017-0368714-01 |
5 | 등록결정서 | 2017.08.16 | 발송처리완료 (Completion of Transmission) | 9-5-2017-0566968-15 |
6 | 출원인정보변경(경정)신고서 | 2019.08.16 | 수리 (Accepted) | 4-1-2019-5163486-33 |
기술정보가 없습니다 |
---|
과제고유번호 | 1345254867 |
---|---|
세부과제번호 | 2015R1D1A1A01056761 |
연구과제명 | 시선 위치, 눈 반응, 감정 및 행태 분석 기반 운전자 감성 인지 자동차 기술 개발 |
성과구분 | 출원 |
부처명 | 교육부 |
연구관리전문기관명 | |
연구주관기관명 | |
성과제출연도 | 2016 |
연구기간 | 201611~201710 |
기여율 | 0.5 |
연구개발단계명 | 기초연구 |
6T분류명 | IT(정보기술) |
과제고유번호 | 1711035232 |
---|---|
세부과제번호 | H8501-16-1014 |
연구과제명 | 소환현실기반 콘텐츠 제작을 위한 실감형 인터랙션 NUI/NUX 플랫폼 기술 개발 |
성과구분 | 출원 |
부처명 | 미래창조과학부 |
연구관리전문기관명 | |
연구주관기관명 | |
성과제출연도 | 2016 |
연구기간 | 201601~201612 |
기여율 | 0.5 |
연구개발단계명 | 기초연구 |
6T분류명 | IT(정보기술) |
과제고유번호 | 1345254867 |
---|---|
세부과제번호 | 2015R1D1A1A01056761 |
연구과제명 | 시선 위치, 눈 반응, 감정 및 행태 분석 기반 운전자 감성 인지 자동차 기술 개발 |
성과구분 | 등록 |
부처명 | 교육부 |
연구관리전문기관명 | |
연구주관기관명 | |
성과제출연도 | 2016 |
연구기간 | 201611~201710 |
기여율 | 0.5 |
연구개발단계명 | 기초연구 |
6T분류명 | IT(정보기술) |
과제고유번호 | 1711035232 |
---|---|
세부과제번호 | H8501-16-1014 |
연구과제명 | 소환현실기반 콘텐츠 제작을 위한 실감형 인터랙션 NUI/NUX 플랫폼 기술 개발 |
성과구분 | 등록 |
부처명 | 미래창조과학부 |
연구관리전문기관명 | |
연구주관기관명 | |
성과제출연도 | 2016 |
연구기간 | 201601~201612 |
기여율 | 0.5 |
연구개발단계명 | 기초연구 |
6T분류명 | IT(정보기술) |
[1020160182702] | 투명 디스플레이 기반의 지능화 상품 전시 시스템 및 그 방법 | 새창보기 |
---|---|---|
[1020160181518] | 성별 인식 장치 및 방법 | 새창보기 |
[1020160169533] | 문자 입력 방법 및 이를 수행하기 위한 장치 | 새창보기 |
[1020160167635] | 회선 신경망 기반 눈 개폐 분류 장치 및 방법 | 새창보기 |
[1020160166299] | 객체 영역 추출 방법 및 그 장치 | 새창보기 |
[1020160164627] | 도로 표지 인식 장치 및 방법 | 새창보기 |
[1020160161791] | 유아 지능 계발을 위한 교육 시스템 및 그 운영방법 | 새창보기 |
[1020160160108] | 체감형 컨텐츠 제공 장치와 연계된 비콘 기반의 사용자 방향 인식 장치 및 그 방법 | 새창보기 |
[1020160151281] | 군집비행의 포메이션을 유지하기 위한 드론 및 그 방법(DRONE FOR MAINTAINING FORMATION OF SWARM FLIGHT AND METHOD THEREOF) | 새창보기 |
[1020160151279] | 드론을 제어하기 위한 시스템 및 방법(SYSTEM AND METHOD FOR CONTROL OF DRONE) | 새창보기 |
[1020160149842] | 공포심리 평가 장치 및 방법 | 새창보기 |
[1020160145737] | 실내 공간에서 드론을 이용한 위치 추정 장치 및 그 방법(APPARATUS FOR ESTIMATING INDOOR POSITION USING DRONE AND METHOD THEREOF) | 새창보기 |
[1020160141360] | 행위 인식 장치 및 방법 | 새창보기 |
[1020160135248] | 영상 특징맵 생성 장치 및 방법(APPARATUS AND METHOD OF IMAGE SALIENCY MAP) | 새창보기 |
[1020160132680] | 스펙트로그램을 이용한 온라인 오디오 장르 분류 방법(A METHOD FOR ON-LINE AUDIO GENRE CLASSIFICATION USING SPECTROGRAM) | 새창보기 |
[1020160129075] | 멀티 드론 제어 시스템 및 방법(SYSTEM AND METHOD FOR CONTROL OF MULTI DRONE) | 새창보기 |
[1020160104769] | 도로의 차선을 재도색하는 장치 및 방법(LANE REPAINTING APPARATUS AND METHOD) | 새창보기 |
[1020160099169] | 공포 심리 분석 시스템 및 방법(System and method for fear mentality analysis) | 새창보기 |
[1020160097396] | 시선 추적 장치 및 방법 | 새창보기 |
[1020160070503] | NUI/NUX에 기반하여 드로잉 영상을 처리하는 장치 및 방법 | 새창보기 |
[1020160013095] | 시선 추적 장치 및 방법 | 새창보기 |
[KST2015188579][동국대학교] | 영상 인식 기반의 주차장의 빈 주차면 인식 장치 및 방법 | 새창보기 |
---|---|---|
[KST2018010994][동국대학교] | 뇌파를 이용한 게임 장치 및 방법 | 새창보기 |
[KST2017015027][동국대학교] | 다방향 인식을 이용한 태권도 동작 평가 장치 및 방법(Apparatus and method for evaluating Taekwondo motion using multi-directional recognition) | 새창보기 |
[KST2017012895][동국대학교] | 헤드램프(Head lamp) | 새창보기 |
[KST2018012446][동국대학교] | 환자 참여형 실시간 전자의무기록 방법 및 시스템 | 새창보기 |
[KST2020010651][동국대학교] | 딥러닝 기반 얼굴 인식 출석체크 시스템 | 새창보기 |
[KST2018016172][동국대학교] | CNN 기반 지정맥 인식 장치 및 인식 방법 | 새창보기 |
[KST2019016828][동국대학교] | 드론의 제어 신호 생성 방법 및 제어 장치 | 새창보기 |
[KST2020010644][동국대학교] | 태그 클라우드 생성 장치 및 방법 | 새창보기 |
[KST2015188169][동국대학교] | 지문 및 정맥 정보 검출 장치 | 새창보기 |
[KST2015188604][동국대학교] | 시선 추적 장치 및 방법 | 새창보기 |
[KST2015231050][동국대학교] | 얼굴 인식 장치 및 방법(DEVICE AND METHOD FOR FACE RECOGNITION) | 새창보기 |
[KST2019018488][동국대학교] | 디지털 영상 이미지를 이용한 위급상황 분석장치 및 방법 | 새창보기 |
[KST2015188461][동국대학교] | 가상화 환경에서 NUI 및 NUX를 시뮬레이션하는 방법 및 장치 | 새창보기 |
[KST2015188525][동국대학교] | 인터페이스 시스템 및 방법 | 새창보기 |
[KST2016017878][동국대학교] | 얼굴 영상 기반 성별 인식 방법 및 장치(METHOD AND COMPUTING DEVICE FOR GENDER RECOGNITION BASED ON FACIAL IMAGE) | 새창보기 |
[KST2019017179][동국대학교] | 딥 러닝 기반의 차량 운전자 시선 추적 장치 및 방법 | 새창보기 |
[KST2015188512][동국대학교] | NUI 기반의 실감형 가상공간 디스플레이 제어장치 및 제어방법 | 새창보기 |
[KST2015188592][동국대학교] | 대화형 로봇 장치 및 그 제어방법 | 새창보기 |
[KST2018005016][동국대학교] | 스마트 테이블(SMART TABLE) | 새창보기 |
[KST2019019648][동국대학교] | 보행자 검출 장치 및 방법 | 새창보기 |
[KST2020010649][동국대학교] | 아이트래킹 센서를 이용한 가상현실용 사용자 인터페이스에 대한 방법 및 시스템 | 새창보기 |
[KST2016016912][동국대학교] | 나이 추정 장치 및 방법(DEVICE AND METHOD FOR HUMAN AGE ESTIMATION) | 새창보기 |
[KST2016017879][동국대학교] | 원거리 가시광선 영상과 열 영상에 기반한 성별 인식 방법 및 장치(METHOD AND COMPUTING DEVICE FOR GENDER RECOGNITION BASED ON LONG DISTANCE VISIBLE LIGHT IMAGE AND THERMAL IMAGE) | 새창보기 |
[KST2018008236][동국대학교] | 문자 입력 방법 및 이를 수행하기 위한 장치 | 새창보기 |
[KST2019014144][동국대학교] | 번들 조정 알고리즘을 이용한 립모션과 HMD 사이의 캘리브레이션 방법 및 장치 | 새창보기 |
[KST2014029176][동국대학교] | 지정맥 인식을 이용한 바이오 인식 방법 | 새창보기 |
[KST2018005017][동국대학교] | 저가형 관성센서를 이용한 모션 인식 시스템 및 그 방법(THE SYSTEM AND METHOD FOR DETECTING MOTION USING LOW-COST INERTIAL SENSOR) | 새창보기 |
[KST2015188657][동국대학교] | 시스루 디스플레이를 이용한 동작인식 장치 및 그 방법 | 새창보기 |
[KST2016016609][동국대학교] | 눈 개폐 분류 장치 및 방법(DEVICE AND METHOD FOR CLASSIFYING OPEN AND CLOSE EYES) | 새창보기 |
심판사항 정보가 없습니다 |
---|