맞춤기술찾기

이전대상기술

1인 방송 환경에서 증강현실 서비스를 위한 인터랙션 장치 및 방법

  • 기술번호 : KST2021007123
  • 담당센터 : 대전기술혁신센터
  • 전화번호 : 042-610-2279
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 본 발명은 1인 방송 환경에서 증강현실 서비스를 위한 인터랙션 장치에 관한 것으로, 카메라를 통해 1인 방송 진행자(Broadcast Jockey) 및 방송 출연자 정보가 포함된 이미지를 획득하는 카메라 영상 입력부; 방송 진행자와 가상객체와의 인터랙션을 위하여 카메라로부터 입력받은 이미지에서 사용자의 관절 좌표를 추출하는 사용자 관절 추출부; 증강현실 서비스에 사용되는 가상객체를 관리하는 가상객체 관리부; 방송 진행자와 가상객체와의 인터랙션을 처리하는 인터랙션 처리부; 및 인터랙션된 방송을 송출하는 방송 처리부을 포함한다.
Int. CL H04N 21/8545 (2011.01.01) H04N 21/81 (2011.01.01) G06T 19/20 (2011.01.01) G06T 7/11 (2017.01.01) G06T 13/40 (2011.01.01)
CPC H04N 21/8545(2013.01) H04N 21/816(2013.01) G06T 19/006(2013.01) G06T 19/20(2013.01) G06T 7/11(2013.01) G06T 13/40(2013.01)
출원번호/일자 1020190154590 (2019.11.27)
출원인 한국전자통신연구원
등록번호/일자
공개번호/일자 10-2021-0065620 (2021.06.04) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 공개
심사진행상태 수리
심판사항
구분 국내출원/신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 N
심사청구항수 20

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 한국전자통신연구원 대한민국 대전광역시 유성구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 이병규 세종특별자치시 국책연구
2 정성욱 대전광역시 서구
3 김주영 대전광역시 유성구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 특허법인지명 대한민국 서울특별시 강남구 남부순환로**** 차우빌딩*층

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2019.11.27 수리 (Accepted) 1-1-2019-1224602-56
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
카메라를 통해 1인 방송 진행자(Broadcast Jockey) 및 방송 출연자 정보가 포함된 이미지를 획득하는 카메라 영상 입력부; 방송 진행자와 가상객체와의 인터랙션을 위하여 카메라로부터 입력받은 이미지에서 사용자의 관절 좌표를 추출하는 사용자 관절 추출부; 증강현실 서비스에 사용되는 가상객체를 관리하는 가상객체 관리부; 방송 진행자와 가상객체와의 인터랙션을 처리하는 인터랙션 처리부; 및 인터랙션된 방송을 송출하는 방송 처리부을 포함하는 1인 방송 환경에서 증강현실 서비스를 위한 인터랙션 장치
2 2
제 1항에 있어서, 상기 카메라 영상 입력부는, RGB 카메라인 1인 방송 환경에서 증강현실 서비스를 위한 인터랙션 장치
3 3
제 1항에 있어서, 사용자 관절 추출부는, 카메라로부터 입력받은 영상 이미지에서 관절 좌표를 추출할 1인 방송 진행자 또는 방송 출연자를 사각형의 박스 형태로 바운딩 처리하고, 바운딩된 이미지를 관절 좌표 추출 모듈로 전달하는 사용자 바운딩 모듈; 및 사용자 바운딩 모듈로부터 전달받은 바운딩 된 이미지로부터 바운딩 된 이미지에 나타나는 사용자의 주요 관절 포인트(ex, 머리, 어깨, 팔꿈치, 손목, 엉덩이, 무릎, 발목 등)에 대한 3D 좌표를 추출하는 관절 좌표 추출 모듈;을 포함하는 1인 방송 환경에서 증강현실 서비스를 위한 인터랙션 장치
4 4
제 2항에 있어서, 상기 관절 좌표 추출 모듈에서 추출한 관절 좌표는, 좌표에 대한 인덱스와 좌표 값의 배열로 인터랙션 모듈에 전달되는 것인 1인 방송 환경에서 증강현실 서비스를 위한 인터랙션 장치
5 5
제 2항에 있어서, 상기 사용자 바운딩 처리 및 사용자 관절 좌표 추출 방법은 기존의 컴퓨터 비전 분야에서 전통적으로 사용되는 방법을 이용하는 1인 방송 환경에서 증강현실 서비스를 위한 인터랙션 장치
6 6
제 1항에 있어서, 상기 가상객체 관리부는, 가상객체가 가지고 있는 기본적인 정보(가상객체의 크기, 가상객체의 이름, 가상객체의 텍스쳐, 가상객체 색인 등)들을 저장하고 변경하는 가상객체 정보 관리 모듈; 방송 진행자가 증강현실 서비스에 사용할 가상객체에 대한 애니메이션 및 경로를 입력 및 수정하는 가상객체 애니메이션 및 경로 관리 모듈; 가상객체와 사용자의 인터랙션으로 인해 생기는 이벤트에 대한 피드백을 입력하고 수정하는 가상객체 피드백 관리 모듈 및 1인 방송 진행자가 진행하는 방송의 상황정보(Context Information)에 따라 가상객체를 추천하는 가상객체 추천 모듈을 포함하는 1인 방송 환경에서 증강현실 서비스를 위한 인터랙션 장치
7 7
제 6항에 있어서, 상기 피드백(ex, 소리, 화면 흔들림, 가상객체의 특정 애니메이션, 사용자 입력 등)은 제공되는 시스템의 구현 정도에 따라 피드백이 추가되거나 감소되는 것인 1인 방송 환경에서 증강현실 서비스를 위한 인터랙션 장치
8 8
제 1항에 있어서, 상기 인터랙션 처리부는, 1인 방송 진행자 또는 방송 출연자와 가상객체 사이에 일어난 이벤트(가상객체와 사용자의 충돌, 가상객체 간의 충돌, 사용자의 제스처 인식, 사용자의 가상객체 터치 등)를 감지하는 이벤트 확인 모듈; 및 상기 이벤트 확인 모듈에서 감지한 이벤트를 1인 방송 진행자와 시청자에게 피드백을 제공하는 피드백 처리 모듈;를 포함하는 1인 방송 환경에서 증강현실 서비스를 위한 인터랙션 장치
9 9
제 6항에 있어서, 상기 애니메이션은 가상객체가 가지고 있는 움직임(ex, 사용자와 충돌 했을 때의 움직임, 이동 할 때의 모션, 가상객체가 사용자를 피해서 이동 등)을 나타내는 것인 1인 방송 환경에서 증강현실 서비스를 위한 인터랙션 장치
10 10
제 6항에 있어서, 상기 경로는 사용자가 증강현실 서비스에 이용할 가상객체가 방송 중에 출연하는 시간이나 환경, 출연하는 위치, 출연하는 방향, 출연하여 이동하는 방향 및 경로 등을 나타내는 것인 1인 방송 환경에서 증강현실 서비스를 위한 인터랙션 장치
11 11
카메라를 통해 촬영된 1인 방송 진행자(Broadcast Jockey) 및 방송 출연자의 이미지 상에 나타난 사용자의 관절 좌표를 추출하는 단계; 증강현실 서비스에 사용되는 가상객체를 관리하는 단계; 및 방송 진행자와 가상객체와의 인터랙션을 처리하는 단계;를 포함하는 1인 방송 환경에서 증강현실 서비스를 위한 인터랙션 방법
12 12
제 11항에 있어서, 인터랙션이 처리된 영상으로 방송을 시작하는 단계; 방송되는 영상의 인터랙션을 체크하는 단계; 이벤트가 발생되는지를 판단하는 단계; 및 상기 판단 단계에서 이벤트가 발생되면 영상에 피드백을 적용하고, 이벤트가 발생되지 않으면 방송을 종료하는 단계;를 더 포함하는 1인 방송 환경에서 증강현실 서비스를 위한 인터랙션 방법
13 13
제 11항에 있어서, 상기 사용자의 관절 좌표를 추출하는 단계는, 카메라로부터 입력받은 영상 이미지에서 관절 좌표를 추출할 1인 방송 진행자 또는 방송 출연자를 사각형의 박스 형태로 바운딩 처리하는 단계; 바운딩된 이미지를 관절 좌표 추출 모듈로 전달하는 단계; 및 사용자 바운딩 모듈로부터 전달받은 바운딩 된 이미지로부터 바운딩 된 이미지에 나타나는 사용자의 주요 관절 포인트(ex, 머리, 어깨, 팔꿈치, 손목, 엉덩이, 무릎, 발목 등)에 대한 3D 좌표를 추출하는 단계;를 포함하는 1인 방송 환경에서 증강현실 서비스를 위한 인터랙션 방법
14 14
제 11항에 있어서, 상기 관절 좌표 추출 모듈에서 추출한 관절 좌표는, 좌표에 대한 인덱스와 좌표 값의 배열로 인터랙션 모듈에 전달되는 것인 1인 방송 환경에서 증강현실 서비스를 위한 인터랙션 방법
15 15
제 12항에 있어서, 상기 사용자 바운딩 처리 및 사용자 관절 좌표 추출 방법은 기존의 컴퓨터 비전 분야에서 전통적으로 사용되는 방법을 이용하는 1인 방송 환경에서 증강현실 서비스를 위한 인터랙션 방법
16 16
제 11항에 있어서, 상기 가상객체를 관리하는 단계는, 가상객체가 가지고 있는 기본적인 정보(가상객체의 크기, 가상객체의 이름, 가상객체의 텍스쳐, 가상객체 색인 등)들을 저장하고 변경하는 단계; 방송 진행자가 증강현실 서비스에 사용할 가상객체에 대한 애니메이션 및 경로를 입력 및 수정하는 단계; 가상객체와 사용자의 인터랙션으로 인해 생기는 이벤트에 대한 피드백을 입력하고 수정하는 단계; 및 1인 방송 진행자가 진행하는 방송의 상황정보(Context Information)에 따라 가상객체를 추천하는 단계;를 포함하는 1인 방송 환경에서 증강현실 서비스를 위한 인터랙션 방법
17 17
제 16항에 있어서, 상기 피드백(ex, 소리, 화면 흔들림, 가상객체의 특정 애니메이션, 사용자 입력 등)은 제공되는 시스템의 구현 정도에 따라 피드백이 추가되거나 감소되는 것인 1인 방송 환경에서 증강현실 서비스를 위한 인터랙션 방법
18 18
제 11항에 있어서, 상기 인터랙션을 처리하는 단계는, 1인 방송 진행자 또는 방송 출연자와 가상객체 사이에 일어난 이벤트(가상객체와 사용자의 충돌, 가상객체 간의 충돌, 사용자의 제스처 인식, 사용자의 가상객체 터치 등)를 감지하는 단계; 및 상기 이벤트 확인 모듈에서 감지한 이벤트를 1인 방송 진행자와 시청자에게 피드백을 제공하는 단계;를 포함하는 1인 방송 환경에서 증강현실 서비스를 위한 인터랙션 방법
19 19
제 16항에 있어서, 상기 애니메이션은 가상객체가 가지고 있는 움직임(ex, 사용자와 충돌 했을 때의 움직임, 이동 할 때의 모션, 가상객체가 사용자를 피해서 이동 등)을 나타내는 것인 1인 방송 환경에서 증강현실 서비스를 위한 인터랙션 방법
20 20
제 16항에 있어서, 상기 경로는 사용자가 증강현실 서비스에 이용할 가상객체가 방송 중에 출연하는 시간이나 환경, 출연하는 위치, 출연하는 방향, 출연하여 이동하는 방향 및 경로 등을 나타내는 것인 1인 방송 환경에서 증강현실 서비스를 위한 인터랙션 방법
지정국 정보가 없습니다
패밀리정보가 없습니다
순번, 연구부처, 주관기관, 연구사업, 연구과제의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 국가R&D 연구정보 정보 표입니다.
순번 연구부처 주관기관 연구사업 연구과제
1 문화체육관광부 한국전자통신연구원 기타사업 사용자 참여형 문화공간 콘텐츠를 위한 AR 플랫폼 기술개발