맞춤기술찾기

이전대상기술

비디오 캡셔닝 학습 장치, 비디오 캡셔닝 학습 방법, 비디오 캡셔닝 장치 및 비디오 캡셔닝 방법

  • 기술번호 : KST2022008662
  • 담당센터 : 인천기술혁신센터
  • 전화번호 : 032-420-3580
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 본 발명의 일실시예에 따르면, 비디오 캡셔닝(captioning) 학습 장치에 있어서, 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 비디오 피쳐 및 템퍼럴 어텐션(temporal attention)을 기초로 상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합을 생성하고, 상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합 및 제2 딥 뉴럴 네트워크(Deep Neural Networks)의 이전 히든 스테이트(hidden state)가 출력한 피쳐를 기초로 단어를 생성한다.
Int. CL G06N 3/08 (2006.01.01) G06N 3/04 (2006.01.01)
CPC G06N 3/08(2013.01) G06N 3/0454(2013.01)
출원번호/일자 1020200174480 (2020.12.14)
출원인 주식회사 엔씨소프트, 이화여자대학교 산학협력단
등록번호/일자
공개번호/일자 10-2022-0084725 (2022.06.21) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 공개
심사진행상태 수리
심판사항
구분 국내출원/신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 N
심사청구항수 18

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 주식회사 엔씨소프트 대한민국 서울특별시 강남구
2 이화여자대학교 산학협력단 대한민국 서울특별시 서대문구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 강제원 서울특별시 서대문구
2 김나영 서울특별시 서대문구
3 하성종 경기도 성남시 분당구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 함영욱 대한민국 서울특별시 금천구 가산디지털*로 *** 에이스테크노타워**차 ***-*호(민영특허법률사무소)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2020.12.14 수리 (Accepted) 1-1-2020-1354894-44
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
비디오 캡셔닝(captioning) 학습 장치에 있어서,적어도 하나의 프로세서를 포함하고,상기 적어도 하나의 프로세서는,비디오 피쳐 및 템퍼럴 어텐션(temporal attention)을 기초로 상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합을 생성하고,상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합 및 제2 딥 뉴럴 네트워크(Deep Neural Networks)의 이전 히든 스테이트(hidden state)가 출력한 피쳐를 기초로 단어를 생성하는 비디오 캡셔닝(captioning) 학습 장치
2 2
제1항에 있어서,상기 적어도 하나의 프로세서는,제1 딥 뉴럴 네트워크(Deep Neural Networks)를 이용하여 상기 비디오 피쳐를 인코딩하여 제1 아웃풋(output)을 생성하고,상기 제1 아웃풋(output)에 미리 설정된 함수를 적용하여 템퍼럴 어텐션(temporal attention)을 생성하고,상기 비디오 피쳐와 상기 템퍼럴 어텐션(temporal attention)을 결합하여 상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합을 생성하는 비디오 캡셔닝(captioning) 학습 장치
3 3
제2항에 있어서,상기 적어도 하나의 프로세서는,상기 제1 아웃풋(output)을 입력으로 하는 학습이 완료된 제1 풀리 커넥티드 레이어(Fully Connected Layer)와 매칭되는 제1 파라미터의 적어도 하나의 파라미터 값을 결정하기 위해 제1 풀리 커넥티드 레이어(Fully Connected Layer)를 학습시키는 비디오 캡셔닝(captioning) 학습 장치
4 4
제1항에 있어서,상기 적어도 하나의 프로세서는,상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합 및 상기 제2 딥 뉴럴 네트워크(Deep Neural Networks)의 이전 히든 스테이트(hidden state)가 출력한 피쳐에 미리 설정된 함수를 적용하여 어텐션(attention)을 생성하고,상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합과 상기 어텐션(attention)을 결합하여 워드 어텐디드 피쳐(word attended features)를 생성하고, 상기 제2 딥 뉴럴 네트워크(Deep Neural Networks)를 이용하여 상기 워드 어텐디드 피쳐(word attended features) 및 상기 제2 딥 뉴럴 네트워크(Deep Neural Networks)의 이전 히든 스테이트(hidden state)가 출력한 피쳐를 디코딩하여 제2 아웃풋(output)을 생성하고,상기 제2 아웃풋(output)을 기초로 미리 설정된 단어집에서 단어를 선택하는 비디오 캡셔닝(captioning) 학습 장치
5 5
제4항에 있어서,상기 적어도 하나의 프로세서는,상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합 및 상기 제2 딥 뉴럴 네트워크(Deep Neural Networks)의 이전 히든 스테이트(hidden state)가 출력한 피쳐를 결합(concatenate)하고,상기 결합(concatenate)한 상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합 및 상기 제2 딥 뉴럴 네트워크(Deep Neural Networks)의 이전 히든 스테이트(hidden state)가 출력한 피쳐를 입력으로 하는 학습이 완료된 제2 풀리 커넥티드 레이어(Fully Connected Layer)와 매칭되는 제2 파라미터의 적어도 하나의 파라미터 값을 결정하기 위해 제2 풀리 커넥티드 레이어(Fully Connected Layer)를 학습시키는 비디오 캡셔닝(captioning) 학습 장치
6 6
제4항에 있어서,상기 적어도 하나의 프로세서는,상기 단어집과 매칭되도록 상기 제2 아웃풋(output)의 차원을 변화시키기 위한 제3 파라미터를 결정하는 비디오 캡셔닝(captioning) 학습 장치
7 7
비디오 피쳐 및 템퍼럴 어텐션(temporal attention)을 기초로 상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합을 생성하는 동작; 및상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합 및 제2 딥 뉴럴 네트워크(Deep Neural Networks)의 이전 히든 스테이트(hidden state)가 출력한 피쳐를 기초로 단어를 생성하는 동작을 포함하는 비디오 캡셔닝(captioning) 학습 방법
8 8
제7항에 있어서,상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합을 생성하는 동작은,제1 딥 뉴럴 네트워크(Deep Neural Networks)를 이용하여 상기 비디오 피쳐를 인코딩하여 제1 아웃풋(output)을 생성하는 동작;상기 제1 아웃풋(output)에 미리 설정된 함수를 적용하여 템퍼럴 어텐션(temporal attention)을 생성하는 동작; 및상기 비디오 피쳐와 상기 템퍼럴 어텐션(temporal attention)을 결합하여 상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합을 생성하는 동작을 포함하는 비디오 캡셔닝(captioning) 학습 방법
9 9
제8항에 있어서,상기 제1 아웃풋(output)에 미리 설정된 함수를 적용하여 템퍼럴 어텐션(temporal attention)을 생성하는 동작은,상기 제1 아웃풋(output)을 입력으로 하는 학습이 완료된 제1 풀리 커넥티드 레이어(Fully Connected Layer)와 매칭되는 제1 파라미터의 적어도 하나의 파라미터 값을 결정하기 위해 제1 풀리 커넥티드 레이어(Fully Connected Layer)를 학습시키는 동작을 더 포함하는 비디오 캡셔닝(captioning) 학습 방법
10 10
제7항에 있어서,상기 단어를 생성하는 동작은,상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합 및 상기 제2 딥 뉴럴 네트워크(Deep Neural Networks)의 이전 히든 스테이트(hidden state)가 출력한 피쳐에 미리 설정된 함수를 적용하여 어텐션(attention)을 생성하는 동작;상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합과 상기 어텐션(attention)을 결합하여 워드 어텐디드 피쳐(word attended features)를 생성하는 동작; 상기 제2 딥 뉴럴 네트워크(Deep Neural Networks)를 이용하여 상기 워드 어텐디드 피쳐(word attended features) 및 상기 제2 딥 뉴럴 네트워크(Deep Neural Networks)의 이전 히든 스테이트(hidden state)가 출력한 피쳐를 디코딩하여 제2 아웃풋(output)을 생성하는 동작; 및상기 제2 아웃풋(output)을 기초로 미리 설정된 단어집에서 단어를 선택하는 동작을 포함하는 비디오 캡셔닝(captioning) 학습 방법
11 11
제10항에 있어서,상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합 및 상기 제2 딥 뉴럴 네트워크(Deep Neural Networks)의 이전 히든 스테이트(hidden state)가 출력한 피쳐에 미리 설정된 함수를 적용하여 어텐션(attention)을 생성하는 동작은,상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합 및 상기 제2 딥 뉴럴 네트워크(Deep Neural Networks)의 이전 히든 스테이트(hidden state)가 출력한 피쳐를 결합(concatenate)하는 동작; 및상기 결합(concatenate)한 상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합 및 상기 제2 딥 뉴럴 네트워크(Deep Neural Networks)의 이전 히든 스테이트(hidden state)가 출력한 피쳐를 입력으로 하는 학습이 완료된 제2 풀리 커넥티드 레이어(Fully Connected Layer)와 매칭되는 제2 파라미터의 적어도 하나의 파라미터 값을 결정하기 위해 제2 풀리 커넥티드 레이어(Fully Connected Layer)를 학습시키는 동작을 더 포함하는 비디오 캡셔닝(captioning) 학습 방법
12 12
제10항에 있어서,상기 제2 아웃풋(output)을 기초로 미리 설정된 단어집에서 단어를 선택하는 동작은,상기 단어집과 매칭되도록 상기 제2 아웃풋(output)의 차원을 변화시키기 위한 제3 파라미터를 결정하는 동작을 더 포함하는 비디오 캡셔닝(captioning) 학습 방법
13 13
비디오 캡셔닝(captioning) 장치에 있어서,적어도 하나의 프로세서를 포함하고,상기 적어도 하나의 프로세서는,비디오 피쳐 및 템퍼럴 어텐션(temporal attention)을 기초로 상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합을 생성하고,상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합 및 제2 딥 뉴럴 네트워크(Deep Neural Networks)의 이전 히든 스테이트(hidden state)가 출력한 피쳐를 기초로 단어를 생성하는 비디오 캡셔닝(captioning) 장치
14 14
제13항에 있어서,상기 적어도 하나의 프로세서는,제1 딥 뉴럴 네트워크(Deep Neural Networks)를 이용하여 상기 비디오 피쳐를 인코딩하여 제1 아웃풋(output)을 생성하고,상기 제1 아웃풋(output)에 미리 설정된 함수를 적용하여 템퍼럴 어텐션(temporal attention)을 생성하고,상기 비디오 피쳐와 상기 템퍼럴 어텐션(temporal attention)을 결합하여 상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합을 생성하는 비디오 캡셔닝(captioning) 장치
15 15
제13항에 있어서,상기 적어도 하나의 프로세서는,상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합 및 상기 제2 딥 뉴럴 네트워크(Deep Neural Networks)의 이전 히든 스테이트(hidden state)가 출력한 피쳐에 미리 설정된 함수를 적용하여 어텐션(attention)을 생성하고,상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합과 상기 어텐션(attention)을 결합하여 워드 어텐디드 피쳐(word attended features)를 생성하고, 상기 제2 딥 뉴럴 네트워크(Deep Neural Networks)를 이용하여 상기 워드 어텐디드 피쳐(word attended features) 및 상기 제2 딥 뉴럴 네트워크(Deep Neural Networks)의 이전 히든 스테이트(hidden state)가 출력한 피쳐를 디코딩하여 제2 아웃풋(output)을 생성하고,상기 제2 아웃풋(output)을 기초로 미리 설정된 단어집에서 단어를 선택하는 비디오 캡셔닝(captioning) 장치
16 16
비디오 피쳐 및 템퍼럴 어텐션(temporal attention)을 기초로 상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합을 생성하는 동작; 및상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합 및 제2 딥 뉴럴 네트워크(Deep Neural Networks)의 이전 히든 스테이트(hidden state)가 출력한 피쳐를 기초로 단어를 생성하는 동작을 포함하는 비디오 캡셔닝(captioning) 방법
17 17
제16항에 있어서,상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합을 생성하는 동작은,제1 딥 뉴럴 네트워크(Deep Neural Networks)를 이용하여 상기 비디오 피쳐를 인코딩하여 제1 아웃풋(output)을 생성하는 동작;상기 제1 아웃풋(output)에 미리 설정된 함수를 적용하여 템퍼럴 어텐션(temporal attention)을 생성하는 동작; 및상기 비디오 피쳐와 상기 템퍼럴 어텐션(temporal attention)을 결합하여 상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합을 생성하는 동작을 포함하는 비디오 캡셔닝(captioning) 방법
18 18
제16항에 있어서,상기 단어를 생성하는 동작은,상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합 및 상기 제2 딥 뉴럴 네트워크(Deep Neural Networks)의 이전 히든 스테이트(hidden state)가 출력한 피쳐에 미리 설정된 함수를 적용하여 어텐션(attention)을 생성하는 동작;상기 템퍼럴 어텐션(temporal attention)이 웨이트로 적용된 비디오 피쳐의 가중치 합과 상기 어텐션(attention)을 결합하여 워드 어텐디드 피쳐(word attended features)를 생성하는 동작; 상기 제2 딥 뉴럴 네트워크(Deep Neural Networks)를 이용하여 상기 워드 어텐디드 피쳐(word attended features) 및 상기 제2 딥 뉴럴 네트워크(Deep Neural Networks)의 이전 히든 스테이트(hidden state)가 출력한 피쳐를 디코딩하여 제2 아웃풋(output)을 생성하는 동작; 및상기 제2 아웃풋(output)을 기초로 미리 설정된 단어집에서 단어를 선택하는 동작을 포함하는 비디오 캡셔닝(captioning) 방법
지정국 정보가 없습니다
패밀리정보가 없습니다
국가 R&D 정보가 없습니다.