맞춤기술찾기

이전대상기술

비디오 질의 응답 학습 장치, 비디오 질의 응답 학습 방법, 비디오 질의 응답 장치 및 비디오 질의 응답 방법

  • 기술번호 : KST2022001444
  • 담당센터 : 인천기술혁신센터
  • 전화번호 : 032-420-3580
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 본 발명의 일실시예에 따르면, 비디오 질의 응답 학습 장치에 있어서, 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 비디오에 대한 비디오 피쳐(feature) 및 질의에 대한 언어 피쳐(feature)를 생성하고, 인코딩 한 상기 질의를 기초로 질의 벡터를 생성하고, 상기 질의 벡터, 상기 비디오에 포함된 적어도 하나의 프레임에 대한 프레임 피쳐(frame feature) 및 상기 비디오의 비디오 압축 정보를 기초로 모션에 의해 가중된 피쳐 벡터(motion weighted feature vector)를 생성한다.
Int. CL G06N 3/08 (2006.01.01) G06N 3/04 (2006.01.01) G06F 16/732 (2019.01.01) G06F 16/738 (2019.01.01) G06F 16/783 (2019.01.01) G06F 16/33 (2019.01.01)
CPC G06N 3/08(2013.01) G06N 3/04(2013.01) G06F 16/732(2013.01) G06F 16/738(2013.01) G06F 16/786(2013.01) G06F 16/3347(2013.01)
출원번호/일자 1020200092340 (2020.07.24)
출원인 주식회사 엔씨소프트, 이화여자대학교 산학협력단
등록번호/일자
공개번호/일자 10-2022-0013164 (2022.02.04) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 공개
심사진행상태 수리
심판사항
구분 국내출원/신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 N
심사청구항수 26

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 주식회사 엔씨소프트 대한민국 서울특별시 강남구
2 이화여자대학교 산학협력단 대한민국 서울특별시 서대문구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 강제원 서울특별시 서대문구
2 김나영 서울특별시 서대문구
3 하성종 경기도 성남시 분당구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 함영욱 대한민국 서울특별시 금천구 가산디지털*로 *** 에이스테크노타워**차 ***-*호(민영특허법률사무소)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2020.07.24 수리 (Accepted) 1-1-2020-0776469-16
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
비디오 질의 응답 학습 장치에 있어서,적어도 하나의 프로세서를 포함하고,상기 적어도 하나의 프로세서는,비디오에 대한 비디오 피쳐(feature) 및 질의에 대한 언어 피쳐(feature)를 생성하고,인코딩 한 상기 질의를 기초로 질의 벡터를 생성하고,상기 질의 벡터, 상기 비디오에 포함된 적어도 하나의 프레임에 대한 프레임 피쳐(frame feature) 및 상기 비디오의 비디오 압축 정보를 기초로 모션에 의해 가중된 피쳐 벡터(motion weighted feature vector)를 생성하는 비디오 질의 응답 학습 장치
2 2
제1항에 있어서,상기 적어도 하나의 프로세서는,상기 생성한 모션에 의해 가중된 피쳐 벡터(motion weighted feature vector), 상기 비디오 피쳐(feature) 및 상기 언어 피쳐(feature)를 기초로 응답을 생성하도록 뉴럴 네트워크를 학습시키는 비디오 질의 응답 학습 장치
3 3
제1항에 있어서,상기 적어도 하나의 프로세서는,제1 인코더를 기초로 상기 질의를 인코딩하여 특징 벡터를 생성하고,상기 생성한 특징 벡터 및 상기 언어 피쳐(feature)를 기초로 질의 벡터를 생성하는 비디오 질의 응답 학습 장치
4 4
제1항에 있어서,상기 적어도 하나의 프로세서는,상기 질의 벡터, 상기 비디오에 포함된 적어도 하나의 프레임에 대한 프레임 피쳐(frame feature) 및 상기 비디오 압축 정보에 포함된 모션 벡터 중 적어도 어느 하나를 기초로 적어도 하나의 어텐디드 벡터(attended vector)를 생성하고,상기 생성한 적어도 하나의 어텐디드 벡터(attended vector) 및 상기 비디오 압축 정보에 포함된 잔차(residual)를 기초로 모션에 의해 가중된 피쳐 벡터(Motion weighted feature vector)를 생성하는 비디오 질의 응답 학습 장치
5 5
제4항에 있어서,상기 적어도 하나의 프로세서는,상기 질의 벡터 및 상기 비디오에 포함된 적어도 하나의 프레임에 대한 제1 프레임 피쳐(frame feature)를 기초로 제1 어텐션 벡터(attention vector)를 생성하고,상기 생성한 제1 어텐션 벡터(attention vector)와 상기 비디오에 포함된 적어도 하나의 프레임에 대한 제1 프레임 피쳐(frame feature)를 기초로 제1 어텐디드 벡터(attended vector)를 생성하고,상기 질의 벡터 및 피쳐 왑핑된(Feature warping) 상기 비디오에 포함된 적어도 하나의 프레임에 대한 제2 프레임 피쳐(frame feature)를 기초로 제2 어텐션 벡터(attention vector)를 생성하고,상기 생성한 제2 어텐션 벡터(attention vector), 상기 비디오에 포함된 적어도 하나의 프레임에 대한 제1 프레임 피쳐(frame feature) 및 피쳐 왑핑된(Feature warping) 상기 비디오에 포함된 적어도 하나의 프레임에 대한 제2 프레임 피쳐(frame feature)를 기초로 제2 어텐디드 벡터(attended vector)를 생성하는 비디오 질의 응답 학습 장치
6 6
제5항에 있어서,상기 적어도 하나의 프로세서는,상기 비디오에 포함된 적어도 하나의 프레임에 대한 제1 프레임 피쳐(frame feature) 및 상기 비디오 압축 정보에 포함된 모션 벡터를 기초로 피쳐 왑핑된(Feature warping) 상기 비디오에 포함된 적어도 하나의 프레임에 대한 제2 프레임 피쳐(frame feature)를 생성하는 비디오 질의 응답 학습 장치
7 7
제5항에 있어서,상기 적어도 하나의 프로세서는,상기 비디오 압축 정보에 포함된 잔차(residual)를 기초로 상기 제1 어텐디드 벡터(attended vector) 및 상기 제2 어텐디드 벡터(attended vector)의 가중치 합을 결정하고,제2 인코더를 기초로 상기 결정한 가중치 합을 인코딩하여 모션에 의해 가중된 피쳐 벡터(Motion weighted feature vector)를 생성하는 비디오 질의 응답 학습 장치
8 8
비디오에 대한 비디오 피쳐(feature) 및 질의에 대한 언어 피쳐(feature)를 생성하는 동작;인코딩 한 상기 질의를 기초로 질의 벡터를 생성하는 동작; 및상기 질의 벡터, 상기 비디오에 포함된 적어도 하나의 프레임에 대한 프레임 피쳐(frame feature) 및 상기 비디오의 비디오 압축 정보를 기초로 모션에 의해 가중된 피쳐 벡터(motion weighted feature vector)를 생성하는 동작을 포함하는 비디오 질의 응답 학습 방법
9 9
제8항에 있어서,상기 비디오 질의 응답 학습 방법은,상기 생성한 모션에 의해 가중된 피쳐 벡터(motion weighted feature vector), 상기 비디오 피쳐(feature) 및 상기 언어 피쳐(feature)를 기초로 응답을 생성하도록 뉴럴 네트워크를 학습시키는 동작을 더 포함하는 비디오 질의 응답 학습 방법
10 10
제8항에 있어서,상기 질의 벡터를 생성하는 동작은,제1 인코더를 기초로 상기 질의를 인코딩하여 특징 벡터를 생성하는 동작; 및상기 생성한 특징 벡터 및 상기 언어 피쳐(feature)를 기초로 질의 벡터를 생성하는 동작을 포함하는 비디오 질의 응답 학습 방법
11 11
제8항에 있어서,상기 모션에 의해 가중된 피쳐 벡터(motion weighted feature vector)를 생성하는 동작은,상기 질의 벡터, 상기 비디오에 포함된 적어도 하나의 프레임에 대한 프레임 피쳐(frame feature) 및 상기 비디오 압축 정보에 포함된 모션 벡터 중 적어도 어느 하나를 기초로 적어도 하나의 어텐디드 벡터(attended vector)를 생성하는 동작; 및상기 생성한 적어도 하나의 어텐디드 벡터(attended vector) 및 상기 비디오 압축 정보에 포함된 잔차(residual)를 기초로 모션에 의해 가중된 피쳐 벡터(Motion weighted feature vector)를 생성하는 동작을 포함하는 비디오 질의 응답 학습 방법
12 12
제11항에 있어서,상기 적어도 하나의 어텐디드 벡터(attended vector)를 생성하는 동작은,상기 질의 벡터 및 상기 비디오에 포함된 적어도 하나의 프레임에 대한 제1 프레임 피쳐(frame feature)를 기초로 제1 어텐션 벡터(attention vector)를 생성하는 동작;상기 생성한 제1 어텐션 벡터(attention vector)와 상기 비디오에 포함된 적어도 하나의 프레임에 대한 제1 프레임 피쳐(frame feature)를 기초로 제1 어텐디드 벡터(attended vector)를 생성하는 동작;상기 질의 벡터 및 피쳐 왑핑된(Feature warping) 상기 비디오에 포함된 적어도 하나의 프레임에 대한 제2 프레임 피쳐(frame feature)를 기초로 제2 어텐션 벡터(attention vector)를 생성하는 동작; 및상기 생성한 제2 어텐션 벡터(attention vector), 상기 비디오에 포함된 적어도 하나의 프레임에 대한 제1 프레임 피쳐(frame feature) 및 피쳐 왑핑된(Feature warping) 상기 비디오에 포함된 적어도 하나의 프레임에 대한 제2 프레임 피쳐(frame feature)를 기초로 제2 어텐디드 벡터(attended vector)를 생성하는 동작을 포함하는 비디오 질의 응답 학습 방법
13 13
제12항에 있어서,상기 제2 어텐션 벡터(attention vector)를 생성하는 동작은,상기 비디오에 포함된 적어도 하나의 프레임에 대한 제1 프레임 피쳐(frame feature) 및 상기 비디오 압축 정보에 포함된 모션 벡터를 기초로 피쳐 왑핑된(Feature warping) 상기 비디오에 포함된 적어도 하나의 프레임에 대한 제2 프레임 피쳐(frame feature)를 생성하는 동작을 포함하는 비디오 질의 응답 학습 방법
14 14
제12항에 있어서,상기 모션에 의해 가중된 피쳐 벡터(Motion weighted feature vector)를 생성하는 동작은,상기 비디오 압축 정보에 포함된 잔차(residual)를 기초로 상기 제1 어텐디드 벡터(attended vector) 및 상기 제2 어텐디드 벡터(attended vector)의 가중치 합을 결정하는 동작; 및제2 인코더를 기초로 상기 결정한 가중치 합을 인코딩하여 모션에 의해 가중된 피쳐 벡터(Motion weighted feature vector)를 생성하는 동작을 포함하는 비디오 질의 응답 학습 방법
15 15
비디오 질의 응답 장치에 있어서,적어도 하나의 프로세서를 포함하고,상기 적어도 하나의 프로세서는,비디오에 대한 비디오 피쳐(feature) 및 질의에 대한 언어 피쳐(feature)를 생성하고,인코딩 한 상기 질의를 기초로 질의 벡터를 생성하고, 상기 질의 벡터, 상기 비디오에 포함된 적어도 하나의 프레임에 대한 프레임 피쳐(frame feature) 및 상기 비디오의 비디오 압축 정보를 기초로 모션에 의해 가중된 피쳐 벡터(motion weighted feature vector)를 생성하고,상기 생성한 모션에 의해 가중된 피쳐 벡터(motion weighted feature vector), 상기 비디오 피쳐(feature) 및 상기 언어 피쳐(feature)를 기초로 학습이 완료된 뉴럴 네트워크를 이용하여 응답을 생성하는 비디오 질의 응답 장치
16 16
제15항에 있어서,상기 적어도 하나의 프로세서는,학습이 완료된 제1 인코더를 기초로 상기 질의를 인코딩하여 특징 벡터를 생성하고,상기 생성한 특징 벡터 및 상기 언어 피쳐(feature)를 기초로 질의 벡터를 생성하는 비디오 질의 응답 장치
17 17
제15항에 있어서,상기 적어도 하나의 프로세서는,상기 질의 벡터, 상기 비디오에 포함된 적어도 하나의 프레임에 대한 프레임 피쳐(frame feature) 및 상기 비디오 압축 정보에 포함된 모션 벡터 중 적어도 어느 하나를 기초로 적어도 하나의 어텐디드 벡터(attended vector)를 생성하고,상기 생성한 적어도 하나의 어텐디드 벡터(attended vector) 및 상기 비디오 압축 정보에 포함된 잔차(residual)를 기초로 모션에 의해 가중된 피쳐 벡터(Motion weighted feature vector)를 생성하는 비디오 질의 응답 장치
18 18
제17항에 있어서,상기 적어도 하나의 프로세서는,상기 질의 벡터 및 상기 비디오에 포함된 적어도 하나의 프레임에 대한 제1 프레임 피쳐(frame feature)를 기초로 제1 어텐션 벡터(attention vector)를 생성하고,상기 생성한 제1 어텐션 벡터(attention vector)와 상기 비디오에 포함된 적어도 하나의 프레임에 대한 제1 프레임 피쳐(frame feature)를 기초로 제1 어텐디드 벡터(attended vector)를 생성하고,상기 질의 벡터 및 피쳐 왑핑된(Feature warping) 상기 비디오에 포함된 적어도 하나의 프레임에 대한 제2 프레임 피쳐(frame feature)를 기초로 제2 어텐션 벡터(attention vector)를 생성하고,상기 생성한 제2 어텐션 벡터(attention vector), 상기 비디오에 포함된 적어도 하나의 프레임에 대한 제1 프레임 피쳐(frame feature) 및 피쳐 왑핑된(Feature warping) 상기 비디오에 포함된 적어도 하나의 프레임에 대한 제2 프레임 피쳐(frame feature)를 기초로 제2 어텐디드 벡터(attended vector)를 생성하는 비디오 질의 응답 장치
19 19
제18항에 있어서,상기 적어도 하나의 프로세서는,상기 비디오에 포함된 적어도 하나의 프레임에 대한 제1 프레임 피쳐(frame feature) 및 상기 비디오 압축 정보에 포함된 모션 벡터를 기초로 피쳐 왑핑된(Feature warping) 상기 비디오에 포함된 적어도 하나의 프레임에 대한 제2 프레임 피쳐(frame feature)를 생성하는 비디오 질의 응답 장치
20 20
제18항에 있어서,상기 적어도 하나의 프로세서는,상기 비디오 압축 정보에 포함된 잔차(residual)를 기초로 상기 제1 어텐디드 벡터(attended vector) 및 상기 제2 어텐디드 벡터(attended vector)의 가중치 합을 결정하고,학습이 완료된 제2 인코더를 기초로 상기 결정한 가중치 합을 인코딩하여 모션에 의해 가중된 피쳐 벡터(Motion weighted feature vector)를 생성하는 비디오 질의 응답 장치
21 21
비디오에 대한 비디오 피쳐(feature) 및 질의에 대한 언어 피쳐(feature)를 생성하는 동작;인코딩 한 상기 질의를 기초로 질의 벡터를 생성하는 동작; 상기 질의 벡터, 상기 비디오에 포함된 적어도 하나의 프레임에 대한 프레임 피쳐(frame feature) 및 상기 비디오의 비디오 압축 정보를 기초로 모션에 의해 가중된 피쳐 벡터(motion weighted feature vector)를 생성하는 동작; 및상기 생성한 모션에 의해 가중된 피쳐 벡터(motion weighted feature vector), 상기 비디오 피쳐(feature) 및 상기 언어 피쳐(feature)를 기초로 학습이 완료된 뉴럴 네트워크를 이용하여 응답을 생성하는 비디오 질의 응답 방법
22 22
제21항에 있어서,상기 질의 벡터를 생성하는 동작은,학습이 완료된 제1 인코더를 기초로 상기 질의를 인코딩하여 특징 벡터를 생성하는 동작; 및상기 생성한 특징 벡터 및 상기 언어 피쳐(feature)를 기초로 질의 벡터를 생성하는 동작을 포함하는 비디오 질의 응답 방법
23 23
제21항에 있어서,상기 모션에 의해 가중된 피쳐 벡터(motion weighted feature vector)를 생성하는 동작은,상기 질의 벡터, 상기 비디오에 포함된 적어도 하나의 프레임에 대한 프레임 피쳐(frame feature) 및 상기 비디오 압축 정보에 포함된 모션 벡터 중 적어도 어느 하나를 기초로 적어도 하나의 어텐디드 벡터(attended vector)를 생성하는 동작; 및상기 생성한 적어도 하나의 어텐디드 벡터(attended vector) 및 상기 비디오 압축 정보에 포함된 잔차(residual)를 기초로 모션에 의해 가중된 피쳐 벡터(Motion weighted feature vector)를 생성하는 동작을 포함하는 비디오 질의 응답 방법
24 24
제23항에 있어서,상기 적어도 하나의 어텐디드 벡터(attended vector)를 생성하는 동작은,상기 질의 벡터 및 상기 비디오에 포함된 적어도 하나의 프레임에 대한 제1 프레임 피쳐(frame feature)를 기초로 제1 어텐션 벡터(attention vector)를 생성하는 동작;상기 생성한 제1 어텐션 벡터(attention vector)와 상기 비디오에 포함된 적어도 하나의 프레임에 대한 제1 프레임 피쳐(frame feature)를 기초로 제1 어텐디드 벡터(attended vector)를 생성하는 동작;상기 질의 벡터 및 피쳐 왑핑된(Feature warping) 상기 비디오에 포함된 적어도 하나의 프레임에 대한 제2 프레임 피쳐(frame feature)를 기초로 제2 어텐션 벡터(attention vector)를 생성하는 동작; 및상기 생성한 제2 어텐션 벡터(attention vector), 상기 비디오에 포함된 적어도 하나의 프레임에 대한 제1 프레임 피쳐(frame feature) 및 피쳐 왑핑된(Feature warping) 상기 비디오에 포함된 적어도 하나의 프레임에 대한 제2 프레임 피쳐(frame feature)를 기초로 제2 어텐디드 벡터(attended vector)를 생성하는 동작을 포함하는 비디오 질의 응답 방법
25 25
제24항에 있어서,상기 제2 어텐션 벡터(attention vector)를 생성하는 동작은,상기 비디오에 포함된 적어도 하나의 프레임에 대한 제1 프레임 피쳐(frame feature) 및 상기 비디오 압축 정보에 포함된 모션 벡터를 기초로 피쳐 왑핑된(Feature warping) 상기 비디오에 포함된 적어도 하나의 프레임에 대한 제2 프레임 피쳐(frame feature)를 생성하는 동작을 포함하는 비디오 질의 응답 방법
26 26
제24항에 있어서,상기 모션에 의해 가중된 피쳐 벡터(Motion weighted feature vector)를 생성하는 동작은,상기 비디오 압축 정보에 포함된 잔차(residual)를 기초로 상기 제1 어텐디드 벡터(attended vector) 및 상기 제2 어텐디드 벡터(attended vector)의 가중치 합을 결정하는 동작; 및학습이 완료된 제2 인코더를 기초로 상기 결정한 가중치 합을 인코딩하여 모션에 의해 가중된 피쳐 벡터(Motion weighted feature vector)를 생성하는 동작을 포함하는 비디오 질의 응답 방법
지정국 정보가 없습니다
패밀리정보가 없습니다
국가 R&D 정보가 없습니다.