맞춤기술찾기

이전대상기술

문서 임베딩을 생성하는 장치 및 방법

  • 기술번호 : KST2021002908
  • 담당센터 : 서울동부기술혁신센터
  • 전화번호 : 02-2155-3662
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 문서 임베딩(document embedding)을 생성하는 장치는, 뉴럴 네트워크(neural network)를 구현하기 위한 프로그램을 저장하는 메모리, 및 프로그램을 실행함으로써 문서 임베딩을 생성하는 프로세서를 포함하고, 프로세서는, 제1 도메인 및 제2 도메인 중 어느 하나에 포함되는 문서들 각각의 문서 임베딩 초기값, 및 문서들에 포함되는 전체 워드들 각각의 워드 임베딩 초기값을 설정하고, 뉴럴 네트워크에 대하여 제1 도메인 및 제2 도메인 간의 도메인 적응(domain adaptation)을 위한 제1 트레이닝을 수행함으로써 워드 임베딩 초기값을 워드 임베딩 최종값으로 업데이트하고, 워드 임베딩 최종값에 기초하여 뉴럴 네트워크에 대하여 도메인 적응을 위한 제2 트레이닝을 수행함으로써 문서 임베딩 초기값을 문서 임베딩 최종값으로 업데이트한다.
Int. CL G06F 40/20 (2020.01.01) G06F 16/93 (2019.01.01) G06N 3/04 (2006.01.01) G06N 3/08 (2006.01.01)
CPC G06F 40/284(2013.01) G06F 16/93(2013.01) G06N 3/04(2013.01) G06N 3/08(2013.01)
출원번호/일자 1020190113642 (2019.09.16)
출원인 서울대학교산학협력단
등록번호/일자
공개번호/일자 10-2021-0032612 (2021.03.25) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 등록
심사진행상태
심판사항
구분
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2019.09.16)
심사청구항수 16

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 서울대학교산학협력단 대한민국 서울특별시 관악구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 이재욱 서울특별시 관악구
2 박새롬 충청북도 청주시 청원구
3 이우진 대전광역시 유성구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 서상덕 대한민국 서울특별시 금천구 가산디지털*로 ***, 가산비지니스센터 ****호(가산동)(도울국제특허법률사무소)
2 이창재 대한민국 서울특별시 금천구 가산디지털*로 ***, (가산동) ****호(도울국제특허법률사무소)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
행정처리가 정보가 없습니다
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
문서 임베딩(document embedding)을 생성하는 장치에 있어서,뉴럴 네트워크(neural network)를 구현하기 위한 프로그램을 저장하는 메모리; 및상기 프로그램을 실행함으로써 상기 문서 임베딩을 생성하는 프로세서를 포함하고,상기 프로세서는,제1 도메인 및 제2 도메인 중 어느 하나에 포함되는 문서들 각각의 문서 임베딩 초기값, 및 상기 문서들에 포함되는 전체 워드들 각각의 워드 임베딩 초기값을 설정하고,상기 뉴럴 네트워크에 대하여 상기 제1 도메인 및 상기 제2 도메인 간의 도메인 적응(domain adaptation)을 위한 제1 트레이닝을 수행함으로써 상기 워드 임베딩 초기값을 워드 임베딩 최종값으로 업데이트하고,상기 워드 임베딩 최종값에 기초하여 상기 뉴럴 네트워크에 대하여 상기 도메인 적응을 위한 제2 트레이닝을 수행함으로써 상기 문서 임베딩 초기값을 문서 임베딩 최종값으로 업데이트하는, 장치
2 2
제 1항에 있어서,상기 프로세서는,상기 문서들 각각을 순차적으로 학습 대상 문서로 설정하고,상기 학습 대상 문서에 포함되는 워드들 각각을 순차적으로 중심 워드로, 상기 중심 워드로부터 일정 범위 내에 위치하는 워드들을 컨텍스트 워드(context word)들로 설정하고,상기 학습 대상 문서가 어떤 도메인에 포함되는지에 따라 상기 제1 도메인 및 상기 제2 도메인 중 어느 하나로부터 네거티브 샘플(negative sample)들을 추출하고,상기 중심 워드, 상기 컨텍스트 워드들 및 상기 네거티브 샘플들 상호간의 유사도에 기초하여 상기 제1 트레이닝을 수행하는, 장치
3 3
제 2항에 있어서,상기 프로세서는,상기 학습 대상 문서가 상기 제1 도메인에 포함되는 경우 상기 제1 도메인의 워드 빈도(word frequency)에 기초하여 설정되는 노이즈 분포에 따라 상기 네거티브 샘플들을 추출하고,상기 학습 대상 문서가 상기 제2 도메인에 포함되는 경우 상기 제2 도메인의 워드 빈도에 기초하여 설정되는 노이즈 분포에 따라 상기 네거티브 샘플들을 추출하는, 장치
4 4
제 2항에 있어서,상기 프로세서는,상기 중심 워드의 워드 임베딩 및 상기 컨텍스트 워드들 각각의 워드 임베딩 간의 거리는 감소하고, 상기 중심 워드의 워드 임베딩 및 상기 네거티브 샘플들 각각의 워드 임베딩 간의 거리는 증가하도록 상기 제1 트레이닝을 수행하는, 장치
5 5
제 1항에 있어서,상기 프로세서는,상기 문서들 각각을 순차적으로 학습 대상 문서로 설정하고,상기 학습 대상 문서가 어떤 도메인에 포함되는지에 따라 상기 제1 도메인 및 상기 제2 도메인 중 어느 하나로부터 네거티브 샘플들을 추출하고,상기 학습 대상 문서에 포함되는 워드들 각각의 워드 임베딩 최종값 및 상기 네거티브 샘플들 각각의 워드 임베딩 최종값에 기초하여 상기 학습 대상 문서의 문서 임베딩을 업데이트함으로써 상기 제2 트레이닝을 수행하는, 장치
6 6
제 5항에 있어서,상기 프로세서는,상기 학습 대상 문서가 상기 제1 도메인에 포함되는 경우 상기 제1 도메인의 워드 빈도에 기초하여 설정되는 노이즈 분포에 따라 상기 네거티브 샘플들을 추출하고,상기 학습 대상 문서가 상기 제2 도메인에 포함되는 경우 상기 제2 도메인의 워드 빈도에 기초하여 설정되는 노이즈 분포에 따라 상기 네거티브 샘플들을 추출하는, 장치
7 7
제 1항에 있어서,상기 프로세서는,상기 문서들에 포함되는 전체 워드들 중 등장 횟수가 미니멈 카운트(minimum count) 이상인 워드들에 대해서만 상기 워드 임베딩 초기값을 설정하는, 장치
8 8
제 1항에 있어서,상기 뉴럴 네트워크는,중심 워드로부터 일정 범위 내에 위치하는 컨텍스트 워드들에 대한 원 핫벡터(one-hot vector)들을 출력하는 입력 레이어;상기 원 핫 벡터들 및 입력 임베딩 행렬에 대한 제1 연산의 결과를 출력하는 히든 레이어; 및상기 제1 연산의 결과 및 출력 임베딩 행렬에 대한 제2 연산의 결과로서 상기 전체 워드들 각각이 상기 중심 워드에 해당할 확률을 출력하는 출력 레이어를 포함하는, 장치
9 9
뉴럴 네트워크(neural network)를 구현하기 위한 프로그램을 실행함으로써 문서 임베딩(document embedding)을 생성하는 방법에 있어서,제1 도메인 및 제2 도메인 중 어느 하나에 포함되는 문서들 각각에 대한 문서 임베딩 초기값, 및 상기 문서들에 포함되는 전체 워드들 각각에 대한 워드 임베딩 초기값을 설정하는 단계;상기 뉴럴 네트워크에 대하여 상기 제1 도메인 및 상기 제2 도메인 간의 도메인 적응(domain adaptation)을 위한 제1 트레이닝을 수행함으로써 상기 워드 임베딩 초기값을 워드 임베딩 최종값으로 업데이트하는 단계; 및상기 워드 임베딩 최종값에 기초하여 상기 뉴럴 네트워크에 대하여 상기 도메인 적응을 위한 제2 트레이닝을 수행함으로써 상기 문서 임베딩 초기값을 문서 임베딩 최종값으로 업데이트하는 단계를 포함하는, 방법
10 10
제 9항에 있어서,상기 워드 임베딩 최종값으로 업데이트하는 단계는,상기 문서들 각각을 순차적으로 학습 대상 문서로 설정하는 단계;상기 학습 대상 문서에 포함되는 워드들 각각을 순차적으로 중심 워드로, 상기 중심 워드로부터 일정 범위 내에 위치하는 워드들을 컨텍스트 워드(context word)들로 설정하는 단계;상기 학습 대상 문서가 어떤 도메인에 포함되는지에 따라 상기 제1 도메인 및 상기 제2 도메인 중 어느 하나로부터 네거티브 샘플(negative sample)들을 추출하는 단계; 및상기 중심 워드, 상기 컨텍스트 워드들 및 상기 네거티브 샘플들 상호간의 유사도에 기초하여 상기 제1 트레이닝을 수행하는 단계를 포함하는, 방법
11 11
제 10항에 있어서,상기 네거티브 샘플들을 추출하는 단계는,상기 학습 대상 문서가 상기 제1 도메인에 포함되는 경우 상기 제1 도메인의 워드 빈도(word frequency)에 기초하여 설정되는 노이즈 분포에 따라 상기 네거티브 샘플들을 추출하는 단계; 및상기 학습 대상 문서가 상기 제2 도메인에 포함되는 경우 상기 제2 도메인의 워드 빈도에 기초하여 설정되는 노이즈 분포에 따라 상기 네거티브 샘플들을 추출하는 단계를 포함하는, 방법
12 12
제 10항에 있어서,상기 제1 트레이닝을 수행하는 단계는,상기 중심 워드의 워드 임베딩 및 상기 컨텍스트 워드들 각각의 워드 임베딩 간의 거리는 감소하고, 상기 중심 워드의 워드 임베딩 및 상기 네거티브 샘플들 각각의 워드 임베딩 간의 거리는 증가하도록 상기 제1 트레이닝을 수행하는 단계를 포함하는, 방법
13 13
제 9항에 있어서,상기 문서 임베딩 최종값으로 업데이트하는 단계는,상기 문서들 각각을 순차적으로 학습 대상 문서로 설정하는 단계;상기 학습 대상 문서가 어떤 도메인에 포함되는지에 따라 상기 제1 도메인 및 상기 제2 도메인 중 어느 하나로부터 네거티브 샘플들을 추출하는 단계; 및상기 학습 대상 문서에 포함되는 워드들 각각의 워드 임베딩 최종값 및 상기 네거티브 샘플들 각각의 워드 임베딩 최종값에 기초하여 상기 학습 대상 문서의 문서 임베딩을 업데이트함으로써 상기 제2 트레이닝을 수행하는 단계를 포함하는, 방법
14 14
제 13항에 있어서,상기 네거티브 샘플들을 추출하는 단계는,상기 학습 대상 문서가 상기 제1 도메인에 포함되는 경우 상기 제1 도메인의 워드 빈도에 기초하여 설정되는 노이즈 분포에 따라 상기 네거티브 샘플들을 추출하는 단계; 및상기 학습 대상 문서가 상기 제2 도메인에 포함되는 경우 상기 제2 도메인의 워드 빈도에 기초하여 설정되는 노이즈 분포에 따라 상기 네거티브 샘플들을 추출하는 단계를 포함하는, 방법
15 15
제 1항에 있어서,상기 워드 임베딩 초기값을 설정하는 단계는,상기 문서들에 포함되는 전체 워드들 중 등장 횟수가 미니멈 카운트(minimum count) 이상인 워드들에 대해서만 상기 워드 임베딩 초기값을 설정하는 단계를 포함하는, 방법
16 16
제 9항에 있어서,상기 뉴럴 네트워크는,중심 워드로부터 일정 범위 내에 위치하는 컨텍스트 워드들에 대한 원 핫벡터(one-hot vector)들을 출력하는 입력 레이어;상기 원 핫 벡터들 및 입력 임베딩 행렬에 대한 제1 연산의 결과를 출력하는 히든 레이어; 및상기 제1 연산의 결과 및 출력 임베딩 행렬에 대한 제2 연산의 결과로서 상기 전체 워드들 각각이 상기 중심 워드에 해당할 확률을 출력하는 출력 레이어를 포함하는, 장치
지정국 정보가 없습니다
패밀리정보가 없습니다
국가 R&D 정보가 없습니다.