1 |
1
여러 층의 LSTM 층으로 구성된 양방향 인코더부를 통해 입력 문서의 단어 서열과 임베딩 벡터를 각 층의 은닉 벡터의 결합인 일반 맥락(general context)으로 출력하는 단계;단방향 디코더부를 통해 목표 단어의 단어 순서를 입력 받아 현재 단계의 셀 상태와 은닉 상태를 계산하는 단계;현재 단계의 노이즈 정보와 이전 단계의 지역 맥락(local context)을 기초로 중요 단어를 선택하는 단계;상기 단방향 디코더부가 출력하는 정보를 하나의 벡터인 연관 맥락(associated context)으로 추상화하는 단계; 및상기 양방향 인코더부로부터 출력된 일반 맥락, 상기 양방향 인코더부와 상기 단방향 디코더부의 정보가 결합된 지역 맥락 및 상기 단방향 디코더부의 연관 맥락을 이용하여 단어 확률 분포를 계산하는 단계;를 포함하는, 노이즈 추가 기반 커버리지와 단어 연관을 이용한 문서 요약 방법
|
2 |
2
제1항에 있어서, 오답 단어의 확률이 최소화되도록 오분류에 대한 추가적인 페널티를 적용한 손실 함수를 이용하여 학습 데이터 셋에 반영하는 단계;를 더 포함하는, 노이즈 추가 기반 커버리지와 단어 연관을 이용한 문서 요약 방법
|
3 |
3
제2항에 있어서, 상기 학습 데이터 셋에 반영하는 단계는,정답이 아닌 단어의 수는 전체 단어의 수와 입력 문서에만 등장하는 단어의 수의 합에서 정답 단어를 제외한 수의 평균을 이용하여 계산하는 단계;를 포함하는, 노이즈 추가 기반 커버리지와 단어 연관을 이용한 문서 요약 방법
|
4 |
4
제1항에 있어서, 상기 일반 맥락은, 상기 양방향 인코더부의 모든 은닉 상태의 평균으로 정의되는, 노이즈 추가 기반 커버리지와 단어 연관을 이용한 문서 요약 방법
|
5 |
5
제1항에 있어서, 상기 지역 맥락은, 입력 단어의 정보와 현재 디코딩 단계의 정보와의 관련도에 대한 주의 집중 점수를 주의집중 메커니즘을 통하여 계산하고, 상기 주의 집중 점수를 가중 평균한 정보인, 노이즈 추가 기반 커버리지와 단어 연관을 이용한 문서 요약 방법
|
6 |
6
제1항에 있어서, 상기 일반 맥락(general context)으로 출력하는 단계는,입력 단어 서열의 문법적인 구조를 기반한 의미를 추출하는 단계; 및입력 단어 서열의 문법 구조로부터 보다 추상적인 의미를 추출하는 단계;를 포함하는, 노이즈 추가 기반 커버리지와 단어 연관을 이용한 문서 요약 방법
|
7 |
7
제1항에 있어서, 상기 중요 단어를 선택하는 단계는,현재 단계의 단어 정보와 이전 모든 단계의 단어 정보를 이용하여 각 단어 의미를 변경하여 조합에 따른 의미 변화를 모델링하는, 노이즈 추가 기반 커버리지와 단어 연관을 이용한 문서 요약 방법
|
8 |
8
제1항에 따른 상기 노이즈 추가 기반 커버리지와 단어 연관을 이용한 문서 요약 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 저장 매체
|
9 |
9
여러 층의 LSTM 층으로 구성되어 입력 문서의 단어 서열과 임베딩 벡터를 각 층의 은닉 벡터의 결합인 일반 맥락(general context)으로 출력하는 양방향 인코더부;목표 단어의 단어 순서를 입력 받아 현재 단계의 셀 상태와 은닉 상태를 계산하는 단방향 디코더부;상기 양방향 인코더부와 상기 단방향 디코더부 사이에서 현재 단계의 노이즈 정보와 이전 단계의 지역 맥락(local context)을 기초로 중요 단어를 선택하는 노이즈 추가 기반 커버리지부;상기 단방향 디코더부가 출력하는 정보를 하나의 벡터인 연관 맥락(associated context)으로 추상화하는 단어 연관부; 및상기 양방향 인코더부로부터 출력된 일반 맥락, 상기 양방향 인코더부와 상기 단방향 디코더부의 정보가 결합된 지역 맥락 및 상기 단방향 디코더부의 연관 맥락을 이용하여 단어 확률 분포를 계산하는 최종 단어 확률 분포부;를 포함하는, 노이즈 추가 기반 커버리지와 단어 연관을 이용한 문서 요약 장치
|
10 |
10
제9항에 있어서, 오답 단어의 확률이 최소화되도록 오분류에 대한 추가적인 페널티를 적용한 손실 함수를 이용하여 학습 데이터 셋에 반영하는 억제 손실 함수부;를 더 포함하는, 노이즈 추가 기반 커버리지와 단어 연관을 이용한 문서 요약 장치
|
11 |
11
제10항에 있어서, 상기 손실 함수는 정답이 아닌 단어 양의 로그 우도의 평균으로 정의되는, 노이즈 추가 기반 커버리지와 단어 연관을 이용한 문서 요약 장치
|
12 |
12
제11항에 있어서, 상기 정답이 아닌 단어의 수는 전체 단어의 수와 입력 문서에만 등장하는 단어의 수의 합에서 정답 단어를 제외한 수를 이용하여 계산하는, 노이즈 추가 기반 커버리지와 단어 연관을 이용한 문서 요약 장치
|
13 |
13
제9항에 있어서, 상기 일반 맥락은, 상기 양방향 인코더부의 모든 은닉 상태의 평균으로 정의되는, 노이즈 추가 기반 커버리지와 단어 연관을 이용한 문서 요약 장치
|
14 |
14
제9항에 있어서, 상기 지역 맥락은, 입력 단어의 정보와 현재 디코딩 단계의 정보와의 관련도에 대한 주의 집중 점수를 주의집중 메커니즘을 통하여 계산하고, 상기 주의 집중 점수를 가중 평균한 정보인, 노이즈 추가 기반 커버리지와 단어 연관을 이용한 문서 요약 장치
|
15 |
15
제9항에 있어서, 상기 양방향 인코더부는,입력 단어 서열의 문법적인 구조를 기반한 의미를 추출하는 낮은 층; 및입력 단어 서열의 문법 구조로부터 보다 추상적인 의미를 추출하는 높은 층;을 포함하는, 노이즈 추가 기반 커버리지와 단어 연관을 이용한 문서 요약 장치
|
16 |
16
제9항에 있어서, 상기 단어 연관부는,현재 단계의 단어 정보와 이전 모든 단계의 단어 정보를 이용하여 각 단어 의미를 변경하여 조합에 따른 의미 변화를 모델링하는, 노이즈 추가 기반 커버리지와 단어 연관을 이용한 문서 요약 장치
|