맞춤기술찾기

이전대상기술

번역 성능 개선을 위한 신경망번역 모델 학습 방법 및 장치

  • 기술번호 : KST2020004264
  • 담당센터 : 대전기술혁신센터
  • 전화번호 : 042-610-2279
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 본 발명은 병렬 코퍼스의 양이 적은 언어쌍이나 도메인에서도 높은 번역 성능을 보장하고 주의집중 네트워크의 단어정렬 정보의 부정확에 따른 과소번역의 문제를 개선하고자 하는 것이다. 인코더 네트워크와 디코더 네트워크는 다른 방식으로 언어를 모델링하기 때문에 상호 대칭 관계가 없지만, 주의집중 네트워크는 제1, 제2언어 간의 단어정렬 정보를 학습하기 때문에 대칭 관계가 존재한다. 또한 인코더 네트워크와 디코더 네트워크를 기반으로 모델링되는 주의집중 네트워크는 학습 및 번역 성능에 매우 큰 영향을 미치며, 대칭 관계를 활용하여 이를 정규화하면 전체 네트워크의 모델링 오류를 효율적으로 줄일 수 있을 것이다. 이를 위하여 신경망번역 모델을 양방향으로 구성하고 모델간의 대칭 관계를 활용하여 단일 언어 코퍼스를 학습에 활용할 수 있도록 한다. 또한 양방향 신경망번역 모델에서 주의집중 네트워크 간의 불완전한 정렬 정보를 수직관계로 정규화하여 보다 정확한 정렬 정보를 학습하도록 한다.
Int. CL G06F 40/40 (2020.01.01)
CPC G06F 40/58(2013.01) G06F 40/58(2013.01)
출원번호/일자 1020180120554 (2018.10.10)
출원인 한국전자통신연구원
등록번호/일자
공개번호/일자 10-2020-0044201 (2020.04.29) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 공개
심사진행상태 수리
심판사항
구분 신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 N
심사청구항수 16

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 한국전자통신연구원 대한민국 대전광역시 유성구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 이요한 경기도 시흥시 목감남서로 **-**
2 김영길 대전광역시 서구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 특허법인지명 대한민국 서울특별시 강남구 남부순환로**** 차우빌딩*층

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2018.10.10 수리 (Accepted) 1-1-2018-0996831-87
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
제1주의집중 네트워크를 포함하는 제1언어-제2언어 번역 모델 및 제2주의집중 네트워크를 포함하는 제2언어-제1언어 번역 모델을 포함하는 신경망번역 모델의 학습 방법으로서, 1) 상기 제1언어-제2언어 번역 모델에서 출력된 제2언어를 상기 제2언어-제1언어 번역 모델로 입력하여 번역된 제1언어를 출력하는 단계; 2) 상기 제2언어-제1언어 번역 모델에서 출력된 제1언어의 분포를 상기 제1언어-제2언어 번역 모델에 입력된 제1언어 입력 문장의 분포와 비교하여 그 오류를 상기 제1언어-제2언어 번역 모델 및 제2언어-제1언어 번역 모델에 전달하는 단계를 포함하는 신경망번역 모델 학습 방법
2 2
제1항에서, 상기 단계 2)에서의 상기 두 분포 간의 비교는 Cross-entropy를 이용하여 수행되는, 신경망번역 모델 학습 방법
3 3
제1항에서, 상기 제1 및 제2주의집중 네트워크의 정렬 정보가 수직관계를 갖도록 정규화하는 단계를 추가로 포함하는 신경망번역 모델 학습 방법
4 4
제3항에서, 상기 정규화 단계는상기 제1언어-제2언어 번역 모델 및 상기 제2언어-제1언어 번역 모델의 각 출력 벡터가 상호 수직관계가 되도록 상기 각 모델의 손실 함수를 정의하여 학습시키는 것을 포함하는 신경망번역 모델 학습 방법
5 5
제1주의집중 네트워크를 포함하는 제1언어-제2언어 번역 모델 및 제2주의집중 네트워크를 포함하는 제2언어-제1언어 번역 모델을 포함하는 신경망번역 모델의 학습 방법으로서, 상기 제1 및 제2주의집중 네트워크의 정렬 정보가 수직관계를 갖도록 정규화하는 단계를 포함하는 신경망번역 모델 학습 방법
6 6
제5항에서, 상기 정규화 단계는상기 제1언어-제2언어 번역 모델 및 상기 제2언어-제1언어 번역 모델의 각 출력 벡터가 상호 수직관계가 되도록 상기 각 모델의 손실 함수를 정의하여 학습시키는 것을 포함하는 신경망번역 모델 학습 방법
7 7
제5항에서, 상기 제1언어-제2언어 번역 모델에서 출력된 제2언어를 상기 제2언어-제1언어 번역 모델로 입력하여 번역된 제1언어를 출력하는 단계; 상기 제2언어-제1언어 번역 모델에서 출력된 제1언어의 분포를 상기 제1언어-제2언어 번역 모델에 입력된 제1언어 입력 문장의 분포와 비교하여 그 오류를 상기 제1언어-제2언어 번역 모델 및 제2언어-제1언어 번역 모델에 전달하는 단계를 추가로 포함하는 신경망번역 모델 학습 방법
8 8
제7항에서, 상기 두 번째 단계에서 두 분포 간의 비교는 Cross-entropy를 이용하여 수행되는, 신경망번역 모델 학습 방법
9 9
입력된 제1언어를 번역하여 제2언어로 출력하는 제1언어-제2언어 번역 모델; 상기 제1언어-제2언어 번역 모델에서 출력된 제2언어를 번역하여 제1언어로 출력하는 제2언어-제1언어 번역 모델;상기 제2언어-제1언어 번역 모델에서 출력된 제1언어의 분포를 상기 제1언어-제2언어 번역 모델에 입력된 제1언어의 분포와 비교하는 수단;상기 비교하여 얻은 오류를 상기 제1언어-제2언어 번역 모델 및 제2언어-제1언어 번역 모델에 전달하는 수단을 포함하는 신경망번역 모델 학습 장치
10 10
제9항에서, 상기 제1언어-제2언어 번역 모델은, 제1언어를 입력으로 받아 제1언어를 모델링하는 제1인코더 네트워크, 제2언어를 모델링하는 제1디코더 네트워크, 제1언어와 제2언어 간의 단어정렬 정보를 모델링하는 제1주의집중 네트워크를 포함하고,상기 제2언어-제1언어 번역 모델은, 제2언어를 입력으로 받아 제2언어를 모델링하는 제2인코더 네트워크, 제1언어를 모델링하는 제2디코더 네트워크, 제2언어와 제1언어 간의 단어정렬 정보를 모델링하는 제2주의집중 네트워크를 포함하는 신경망번역 모델 학습 장치
11 11
제9항에서, 상기 제1 및 제2주의집중 네트워크의 정렬 정보가 수직관계를 갖도록 정규화하는 수단을 추가로 포함하는 신경망번역 모델 학습 장치
12 12
제11항에서, 상기 정규화 수단은상기 제1언어-제2언어 번역 모델 및 상기 제2언어-제1언어 번역 모델의 각 출력 벡터가 상호 수직관계가 되도록 상기 각 모델의 손실 함수를 정의하여 학습시키는 것을 포함하는 신경망번역 모델 학습 장치
13 13
제1언어를 입력으로 받아 제1언어를 모델링하는 제1인코더 네트워크, 제2언어를 모델링하는 제1디코더 네트워크, 제1언어와 제2언어 간의 단어정렬 정보를 모델링하는 제1주의집중 네트워크를 포함하여, 입력된 제1언어를 번역하여 제2언어로 출력하는 제1언어-제2언어 번역 모델; 제2언어를 입력으로 받아 제2언어를 모델링하는 제2인코더 네트워크, 제1언어를 모델링하는 제2디코더 네트워크, 제2언어와 제1언어 간의 단어정렬 정보를 모델링하는 제2주의집중 네트워크를 포함하여, 상기 제1언어-제2언어 번역 모델에서 출력된 제2언어를 번역하여 제1언어로 출력하는 제2언어-제1언어 번역 모델;상기 제1 및 제2주의집중 네트워크의 정렬 정보가 수직관계를 갖도록 정규화하는 수단을 포함하는 신경망번역 모델 학습 장치
14 14
제13항에서, 상기 정규화 수단은상기 제1언어-제2언어 번역 모델 및 상기 제2언어-제1언어 번역 모델의 각 출력 벡터가 상호 수직관계가 되도록 상기 각 모델의 손실 함수를 정의하여 학습시키는 것을 포함하는 신경망번역 모델 학습 장치
15 15
제13항에서, 상기 제2언어-제1언어 번역 모델에서 출력된 제1언어의 분포를 상기 제1언어-제2언어 번역 모델에 입력된 제1언어의 분포와 비교하는 수단;상기 비교하여 얻은 오류를 상기 제1언어-제2언어 번역 모델 및 제2언어-제1언어 번역 모델에 전달하는 수단을 추가로 포함하는 신경망번역 모델 학습 장치
16 16
제1주의집중 네트워크를 포함하는 제1언어-제2언어 번역 모델을 검증하는 방법으로서, 상기 제1언어-제2언어 번역 모델에서 출력된 제2언어를, 제2주의집중 네트워크를 포함하는 제2언어-제1언어 번역 모델로 입력하여 번역된 제1언어를 출력하는 단계; 상기 제2언어-제1언어 번역 모델에서 출력된 제1언어의 분포를 상기 제1언어-제2언어 번역 모델에 입력된 제1언어 입력 문장의 분포와 비교하여 그 오류를 상기 제1언어-제2언어 번역 모델 및 제2언어-제1언어 번역 모델에 전달하는 단계를 포함하는 신경망번역 모델 검증 방법
지정국 정보가 없습니다
순번, 패밀리번호, 국가코드, 국가명, 종류의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 패밀리정보 - 패밀리정보 표입니다.
순번 패밀리번호 국가코드 국가명 종류
1 US20200117715 US 미국 FAMILY

DOCDB 패밀리 정보

순번, 패밀리번호, 국가코드, 국가명, 종류의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 패밀리정보 - DOCDB 패밀리 정보 표입니다.
순번 패밀리번호 국가코드 국가명 종류
1 US2020117715 US 미국 DOCDBFAMILY
순번, 연구부처, 주관기관, 연구사업, 연구과제의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 국가R&D 연구정보 정보 표입니다.
순번 연구부처 주관기관 연구사업 연구과제
1 과학기술정보통신부 한국전자통신연구원 SW컴퓨팅산업원천기술개발사업(정보화) 지식증강형 실시간 동시통역 원천기술 개발