맞춤기술찾기

이전대상기술

다중 디코더를 이용한 심화 신경망 기반의 비-자동회귀 음성 합성 방법 및 시스템

  • 기술번호 : KST2021002624
  • 담당센터 : 서울서부기술혁신센터
  • 전화번호 : 02-6124-6930
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 심화 신경망 기반의 비-자동회귀 음성 합성 방법 및 시스템이 제시된다. 일 실시예에 따른 심화 신경망 기반의 비-자동회귀 음성 합성 시스템은, 다중 디코더 기반의 비재귀적 심화 신경망을 구성하고, 음성의 시간적 정보가 포함된 템플릿(Template)으로부터 상기 다중 디코더를 통하여 단계적으로 음성 특징 벡터열을 생성하는 음성 특징 벡터열 합성부; 및 상기 음성 특징 벡터열을 음성 데이터로 변환하는 음성 재구성부를 포함하고, 상기 음성 특징 벡터열 합성부는, 상기 템플릿(Template) 입력을 생성하고, 생성된 상기 템플릿(Template) 입력에 어텐션 메커니즘(attention mechanism)을 통해 정제된 문장 데이터를 추가하여 음성 특징 벡터열을 생성할 수 있다.
Int. CL G10L 13/08 (2006.01.01) G10L 13/02 (2006.01.01) G10L 19/00 (2006.01.01) G06N 3/02 (2019.01.01)
CPC G10L 13/08(2013.01) G10L 13/02(2013.01) G10L 19/0018(2013.01) G06N 3/02(2013.01)
출원번호/일자 1020190085920 (2019.07.16)
출원인 한양대학교 산학협력단
등록번호/일자
공개번호/일자 10-2021-0009194 (2021.01.26) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 등록
심사진행상태 수리
심판사항
구분
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2019.07.16)
심사청구항수 11

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 한양대학교 산학협력단 대한민국 서울특별시 성동구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 장준혁 서울특별시 성동구
2 이모아 서울특별시 성동구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 양성보 대한민국 서울특별시 강남구 선릉로***길 ** (논현동) 삼성빌딩 *층(피앤티특허법률사무소)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2019.07.16 수리 (Accepted) 1-1-2019-0728880-85
2 출원인정보변경(경정)신고서
Notification of change of applicant's information
2019.08.05 수리 (Accepted) 4-1-2019-5155816-75
3 출원인정보변경(경정)신고서
Notification of change of applicant's information
2019.08.06 수리 (Accepted) 4-1-2019-5156285-09
4 의견제출통지서
Notification of reason for refusal
2020.10.27 발송처리완료 (Completion of Transmission) 9-5-2020-0742651-25
5 [명세서등 보정]보정서
[Amendment to Description, etc.] Amendment
2020.12.28 보정승인간주 (Regarded as an acceptance of amendment) 1-1-2020-1421676-58
6 [거절이유 등 통지에 따른 의견]의견서·답변서·소명서
2020.12.28 수리 (Accepted) 1-1-2020-1421675-13
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
다중 디코더 기반의 비재귀적 심화 신경망을 구성하고, 음성의 시간적 정보가 포함된 템플릿(Template)으로부터 상기 다중 디코더를 통하여 단계적으로 음성 특징 벡터열을 생성하는 음성 특징 벡터열 합성부; 및 상기 음성 특징 벡터열을 음성 데이터로 변환하는 음성 재구성부를 포함하고, 상기 음성 특징 벡터열 합성부는, 상기 템플릿(Template) 입력을 생성하고, 생성된 상기 템플릿(Template) 입력에 어텐션 메커니즘(attention mechanism)을 통해 정제된 문장 데이터를 추가하여 음성 특징 벡터열을 생성하는 것을 특징으로 하는, 심화 신경망 기반의 비-자동회귀 음성 합성 시스템
2 2
제1항에 있어서,문장 데이터를 분석하여 정제된 문장 데이터를 출력하는 문장 데이터 분석부를 더 포함하고, 상기 문장 데이터 분석부는, 상기 문장 데이터를 한글의 자모 단위로 분해하여 자모 단위 입력을 생성한 후, 임베딩하여 문장 특징 벡터열 형태의 임베딩된 문장 데이터를 형성하고, 상기 임베딩된 문장 데이터를 콘볼루션(convolution) 인공 신경망을 이용하여 정제하여 상기 정제된 문장 데이터를 형성하는 것를 포함하는, 심화 신경망 기반의 비-자동회귀 음성 합성 시스템
3 3
제2항에 있어서,상기 문장 데이터 분석부는, 상기 문장 데이터를 한글의 자모 단위로 분해하여 자모 단위 입력을 생성하고, 상기 자모 단위 입력을 색인하여 숫자 데이터로 매핑하여, 상기 숫자 데이터를 원-핫 인코딩(One-hot encoding)하고, 원-핫 인코딩(One-hot encoding)된 벡터열을 문장 임베딩 매트릭스와 곱하여 연속된 특성을 가지는 벡터열로 이루어진 상기 임베딩된 문장 데이터를 생성하는 것을 특징으로 하는, 심화 신경망 기반의 비-자동회귀 음성 합성 시스템
4 4
제1항에 있어서, 상기 음성 특징 벡터열 합성부는, 상기 템플릿(Template) 입력을 생성하고, 상기 템플릿(Template) 입력에 어텐션 메커니즘(attention mechanism)을 이용하여 상기 정제된 문장 데이터를 추가하여 인코딩된 템플릿(Template)을 생성한 후, 상기 인코딩된 템플릿(Template)을 디코딩을 통해 멜 필터 뱅크 음성 특징 벡터열을 합성하고, 상기 멜 필터 뱅크 음성 특징 벡터열에서 로그 파워 스펙트럼 음성 특징 벡터열을 합성하는 것을 특징으로 하는, 심화 신경망 기반의 비-자동회귀 음성 합성 시스템
5 5
제4항에 있어서,상기 음성 특징 벡터열 합성부는, 상기 정제된 문장 데이터와 상기 템플릿(Template)을 입력으로 받아 상기 어텐션 메커니즘이 로그 파워 스펙트럼 합성에 필요한 부분을 선택하여 고정된 길이의 벡터를 형성하고, 다중 디코더를 통해 상기 템플릿(Template)으로부터 단계적으로 로그 파워 스펙트럼을 추정하며, 상기 다중 디코더 중 적어도 어느 하나 이상의 단일 디코더에서 콘볼루션 네트워크와 상기 어텐션 메커니즘을 반복하여 정확한 정보를 담은 상기 템플릿(Template) 데이터를 인코딩하는 것을 특징으로 하는, 심화 신경망 기반의 비-자동회귀 음성 합성 시스템
6 6
제1항에 있어서,상기 음성 재구성부는, 그리핀-림 알고리즘(Griffin-lim algorithm)을 이용하여 크기(magnitude) 정보를 갖는 상기 음성 특징 벡터열로부터 위상(phase) 정보를 생성하여 상기 음성 데이터로 변환하는 것을 특징으로 하는, 심화 신경망 기반의 비-자동회귀 음성 합성 시스템
7 7
다중 디코더 기반의 비재귀적 심화 신경망을 구성하고, 음성의 시간적 정보가 포함된 템플릿(Template)으로부터 상기 다중 디코더를 통하여 단계적으로 음성 특징 벡터열을 생성하는 음성 특징 벡터열 합성 단계; 및 상기 음성 특징 벡터열을 음성 데이터로 변환하는 음성 재구성 단계를 포함하고, 상기 음성 특징 벡터열 합성 단계는, 상기 템플릿(Template) 입력을 생성하고, 생성된 상기 템플릿(Template) 입력에 어텐션 메커니즘(attention mechanism)을 통해 정제된 문장 데이터를 추가하여 음성 특징 벡터열을 생성하는 것을 특징으로 하는, 심화 신경망 기반의 비-자동회귀 음성 합성 방법
8 8
제7항에 있어서,문장 데이터를 분석하여 정제된 문장 데이터를 출력하는 문장 데이터 분석 단계를 더 포함하고, 상기 문장 데이터 분석 단계는, 상기 문장 데이터를 한글의 자모 단위로 분해하여 자모 단위 입력을 생성한 후, 임베딩하여 문장 특징 벡터열 형태의 임베딩된 문장 데이터를 형성하는 단계; 및 상기 임베딩된 문장 데이터를 콘볼루션(convolution) 인공 신경망을 이용하여 정제하여 상기 정제된 문장 데이터를 형성하는 단계를 포함하는, 심화 신경망 기반의 비-자동회귀 음성 합성 방법
9 9
제8항에 있어서,상기 문장 특징 벡터열 형태의 임베딩된 문장 데이터를 형성하는 단계는, 상기 문장 데이터를 한글의 자모 단위로 분해하여 자모 단위 입력을 생성하는 단계; 상기 자모 단위 입력을 색인하여 숫자 데이터로 매핑하는 단계; 상기 숫자 데이터를 원-핫 인코딩(One-hot encoding)하는 단계; 및 원-핫 인코딩(One-hot encoding)된 벡터열을 문장 임베딩 매트릭스와 곱하여 연속된 특성을 가지는 벡터열로 이루어진 상기 임베딩된 문장 데이터를 생성하는 단계를 포함하는, 심화 신경망 기반의 비-자동회귀 음성 합성 방법
10 10
제7항에 있어서,상기 음성 특징 벡터열 합성부의 입력인 상기 템플릿(Template)은, 절대적인 위치의 인코딩(absolute positional encoding) 데이터와 상대적인 위치의 인코딩(relative positional encoding) 데이터로 이루어지는 것을 특징으로 하는, 심화 신경망 기반의 비-자동회귀 음성 합성 방법
11 11
제7항에 있어서, 상기 음성 특징 벡터열 합성 단계는, 상기 템플릿(Template) 입력을 생성하는 단계; 상기 템플릿(Template) 입력에 어텐션 메커니즘(attention mechanism)을 이용하여 상기 정제된 문장 데이터를 추가하여 인코딩된 템플릿(Template)을 생성하는 음성 데이터 인코딩 단계; 상기 인코딩된 템플릿(Template)을 디코딩을 통해 멜 필터 뱅크 음성 특징 벡터열을 합성하는 음성 데이터 디코딩 단계; 및 상기 멜 필터 뱅크 음성 특징 벡터열에서 로그 파워 스펙트럼 음성 특징 벡터열을 합성하는 단계를 포함하는, 심화 신경망 기반의 비-자동회귀 음성 합성 방법
12 12
제11항에 있어서,상기 상기 템플릿(Template) 입력을 생성하는 단계는, 절대적인 위치의 인코딩 데이터를 생성하는 단계; 상대적인 위치의 인코딩 데이터를 생성하는 단계; 및생성된 상기 절대적인 위치의 인코딩 데이터와 상기 상대적인 위치의 인코딩 데이터를 병합(concatenate)하여 상기 템플릿(Template)을 생성하는 단계를 포함하는, 심화 신경망 기반의 비-자동회귀 음성 합성 방법
13 13
제11항에 있어서,상기 음성 데이터 인코딩 단계는, 상기 정제된 문장 데이터와 상기 템플릿(Template)을 입력으로 받아 상기 어텐션 메커니즘이 로그 파워 스펙트럼 합성에 필요한 부분을 선택하여 고정된 길이의 벡터를 형성하는 단계; 다중 디코더를 통해 상기 템플릿(Template)으로부터 단계적으로 로그 파워 스펙트럼을 추정하는 단계; 및 상기 다중 디코더 중 적어도 어느 하나 이상의 단일 디코더에서 콘볼루션 네트워크와 상기 어텐션 메커니즘을 반복하여 정확한 정보를 담은 상기 템플릿(Template) 데이터를 인코딩하는 단계를 포함하는, 심화 신경망 기반의 비-자동회귀 음성 합성 방법
14 14
제11항에 있어서,상기 음성 데이터 디코딩 단계는, 음성 데이터 디코딩 인공 신경망을 통해 상기 인코딩된 템플릿(Template)으로부터 멜 필터 뱅크 음성 특징 벡터열을 합성하는 단계를 포함하는, 심화 신경망 기반의 비-자동회귀 음성 합성 방법
15 15
제7항에 있어서,상기 음성 재구성 단계는, 그리핀-림 알고리즘(Griffin-lim algorithm)을 이용하여 크기(magnitude) 정보를 갖는 상기 음성 특징 벡터열로부터 위상(phase) 정보를 생성하여 상기 음성 데이터로 변환하는 것을 특징으로 하는, 심화 신경망 기반의 비-자동회귀 음성 합성 방법
지정국 정보가 없습니다
패밀리정보가 없습니다
순번, 연구부처, 주관기관, 연구사업, 연구과제의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 국가R&D 연구정보 정보 표입니다.
순번 연구부처 주관기관 연구사업 연구과제
1 과학기술정보통신부 한양대학교 산학협력단 한국연구재단 부설 정보통신기획평가원 / 정보통신방송 연구개발사업 / 방송통신산업기술개발사업(이지바로) AI스피커 음성비서를 위한 지능형 음성신호처리 기술개발