맞춤기술찾기

이전대상기술

얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델 및 이를 포함하는 음성 인식 장치

  • 기술번호 : KST2023005969
  • 담당센터 : 서울서부기술혁신센터
  • 전화번호 : 02-6124-6930
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 일 실시예에 따른 얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델은 음성 정보를 입력 정보로 하고, 상기 음성 정보에 대응되는 얼라이먼트 (alignment) 정보를 출력 정보로 하는 제1인공신경망 모듈을 포함하는 제1음향 모델(Acoustic Model) 및 상기 음성 정보를 입력 정보로 하고, 상기 음성 정보에 대응되는 텍스트 정보를 출력 정보로 하는 제2인공신경망 모듈을 포함하는 제2음향 모델;을 포함하고, 상기 제2음향 모델은, 상기 얼라이먼트 정보를 기초로 상기 제2음향 모델의 학습을 수행하는데 필요한 레퍼런스 데이터를 생성한 후, 상기 레퍼런스 데이터 및 상기 텍스트 정보를 기초로 생성된 손실함수를 이용하여 상기 제2음향 모델의 파라미터를 보정하는 방법으로 학습을 수행할 수 있다.
Int. CL G10L 15/14 (2006.01.01) G10L 15/183 (2013.01.01) G10L 15/06 (2006.01.01) G10L 25/93 (2013.01.01) G10L 15/26 (2006.01.01)
CPC G10L 15/14(2013.01) G10L 15/183(2013.01) G10L 15/063(2013.01) G10L 25/93(2013.01) G10L 15/26(2013.01)
출원번호/일자 1020210186839 (2021.12.24)
출원인 한양대학교 산학협력단
등록번호/일자
공개번호/일자 10-2023-0097389 (2023.07.03) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 공개
심사진행상태 수리
심판사항
구분 국내출원/신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2021.12.24)
심사청구항수 15

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 한양대학교 산학협력단 대한민국 서울특별시 성동구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 장준혁 서울특별시 성동구
2 이문학 서울특별시 성동구
3 이상언 서울특별시 성동구
4 성주석 서울특별시 성동구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 해움특허법인 대한민국 서울특별시 강남구 테헤란로 *** ,동관 ****호 ****호, ****호, ****호 (역삼동, 한신인터밸리**빌딩)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2021.12.24 수리 (Accepted) 1-1-2021-1497871-04
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
음성 정보를 입력 정보로 하고, 상기 음성 정보에 대응되는 얼라이먼트(alignment) 정보를 출력 정보로 하는 제1인공신경망 모듈을 포함하는 제1음향 모델(Acoustic Model); 및상기 음성 정보를 입력 정보로 하고, 상기 음성 정보에 대응되는 텍스트 정보를 출력 정보로 하는 제2인공신경망 모듈을 포함하는 제2음향 모델;을 포함하고,상기 제2음향 모델은,상기 얼라이먼트 정보를 기초로 상기 제2음향 모델의 학습을 수행하는데 필요한 레퍼런스 데이터를 생성한 후, 상기 레퍼런스 데이터 및 상기 텍스트 정보를 기초로 생성된 손실함수를 이용하여 상기 제2음향 모델의 파라미터를 보정하는 방법으로 학습을 수행하는 것을 특징으로 하는,얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델
2 2
제 1항에 있어서,상기 제2음향 모델은,상기 얼라이먼트 정보를 기초로 어텐션 스코어 메트릭스(attention score matrix) 정보를 생성한 후, 상기 어텐션 스코어 메트릭스 정보를 기초로 학습을 수행하는 것을 특징으로 하는,얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델
3 3
제 1항에 있어서,상기 제2음향 모델은,상기 음성 정보 및 상기 얼라이먼트 정보 사이에 대응되는 부분을 구분하여 복수 개의 구간으로 분리한 후, 각각 대응되는 구간들 사이의 유사도(similarity) 정보를 기초로, 학습을 수행하는 것을 특징으로 하는, 얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델
4 4
제 3항에 있어서,상기 제2음향 모델은,상기 음성 정보 및 상기 얼라이먼트 정보를 사일런스(silence) 구간과 스피치(speech) 구간으로 분리한 후, 학습을 수행하는 것을 특징으로 하는, 얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델
5 5
제 4항에 있어서,상기 제2음향 모델은,상기 음성 정보의 사일런스 구간의 학습과, 상기 음성 정보의 스피치 구간은 각각 별도로 학습이 이루어지는 것을 특징으로 하는, 얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델
6 6
제4항에 있어서,상기 제2음향 모델은,상기 음성 정보에서의 사일런스 구간과 상기 얼라이먼트 정보에서의 사일런스 구간이 서로 대응되는 영역을 제1영역으로 구분하고, 상기 음성 정보에서의 스피치 구간과 상기 얼라이먼트 정보에서의 스피치 구간이 서로 대응되는 영역을 제2영역으로 구분한 후,상기 제1영역과 상기 제2영역은 서로 다른 방법으로 학습을 수행하는 것을 특징으로 하는, 얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델
7 7
제6항에 있어서,상기 제2음향 모델은,상기 제1영역의 유사도 값이 상기 제2영역의 유사도 값보다 더 큰 값을 가지도록 학습을 수행하는 것을 특징으로 하는,얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델
8 8
제7항에 있어서,상기 제2음향 모델은,상기 제1영역의 유사도 값은 1에 수렴하도록 학습을 수행하고, 상기 제2영역의 유사도 값은 0에 수렴하도록 학습을 수행하는 것을 특징으로 하는,얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델
9 9
제 4항에 있어서,상기 제2음향 모델은,상기 음성 정보의 사일런스 구간과 상기 음성 정보의 사일런스 구간에 대응되는 상기 얼라이먼트 정보의 사일런스 구간 사이의 제1-1유사도 값; 및상기 음성 정보의 사일런스 구간과 상기 음성 정보의 사일런스 구간에 대응되는 상기 얼라이먼트 정보의 스피치 구간 사이의 제2-1유사도 값;을 기초로 학습을 수행하는 것을 특징으로 하는, 얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델
10 10
제9항에 있어서,상기 제2음향 모델은,상기 제1-1유사도 값이 상기 제2-1유사도 값보다 더 큰 값을 가지도록 학습을 수행하는 것을 특징으로 하는,얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델
11 11
제 4항에 있어서,상기 제2음향 모델은,상기 음성 정보의 스피치 구간과 상기 음성 정보의 스피치 구간에 대응되는 상기 얼라이먼트 정보의 스피치 구간 사이의 제1-2유사도 값; 및상기 음성 정보의 스피치 구간과 상기 음성 정보의 스피치 구간에 대응되는 상기 얼라이먼트 정보의 사일런스 구간 사이의 제2-2유사도 값;을 기초로 학습을 수행하는 것을 특징으로 하는, 얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델
12 12
제11항에 있어서,상기 제2음향 모델은,상기 제1-2유사도 값이 상기 제2-2유사도 값보다 더 큰 값을 가지도록 학습을 수행하는 것을 특징으로 하는,얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델
13 13
음성 정보를 입력 정보로 하고, 상기 음성 정보에 대해 대응되는 얼라이먼트(alignment) 정보를 출력 정보로 하는 제1인공신경망 모듈을 포함하는 제1음향 모델(Acoustic Model)을 이용하여, 상기 얼라이먼트 정보를 생성하는 단계; 및상기 음성 정보를 입력 정보로 하고, 상기 음성 정보에 대해 대응되는 텍스트 정보를 출력 정보로 하는 제2인공신경망 모듈을 포함하는 제2음향 모델을 이용하여 상기 텍스트 정보를 출력하는 단계;를 포함하고,상기 텍스트 정보를 출력하는 단계는,상기 얼라이먼트 정보를 기초로 상기 제2음향 모델의 학습을 수행하는데 필요한 레퍼런스 데이터를 생성한 후, 상기 레퍼런스 데이터 및 상기 텍스트 정보를 기초로 생성된 손실함수를 이용하여 상기 제2음향 모델의 파라미터를 보정하는 방법으로 학습을 수행하는 단계를 포함하는 것을 특징으로 하는,얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델 학습 방법
14 14
음성 정보를 입력 정보로 하고, 상기 음성 정보에 대해 대응되는 얼라이먼트(alignment) 정보를 출력 정보로 하는 제1인공신경망 모듈을 포함하는 제1음향 모델(Acoustic Model); 및상기 음성 정보를 입력 정보로 하고, 상기 음성 정보에 대해 대응되는 텍스트 정보를 출력 정보로 하는 제2인공신경망 모듈을 포함하는 제2음향 모델;을 포함하고,상기 제2음향 모델은,상기 얼라이먼트 정보를 기초로 상기 제2음향 모델의 학습을 수행하는데 필요한 레퍼런스 데이터를 생성한 후, 상기 레퍼런스 데이터 및 상기 텍스트 정보를 기초로 생성된 손실함수를 이용하여 상기 제2음향 모델의 파라미터를 보정하는 방법으로 학습을 수행하는 것을 특징으로 하는,얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델을 포함하는 음성 인식 장치
15 15
제 14항에 있어서,상기 제2음향 모델은,상기 얼라이먼트 정보를 기초로 어텐션 스코어 메트릭스(attention score matrix) 정보를 생성한 후, 생성된 어텐션 스코어 메트릭스 정보를 기초로 학습을 수행하는 것을 특징으로 하는,얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델을 포함하는 음성 인식 장치
지정국 정보가 없습니다
패밀리정보가 없습니다
순번, 연구부처, 주관기관, 연구사업, 연구과제의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 국가R&D 연구정보 정보 표입니다.
순번 연구부처 주관기관 연구사업 연구과제
1 과학기술정보통신부 한양대학교산학협력단 SW컴퓨팅산업원천기술개발(R&D,정보화) 원격 다자간 영상회의에서의 음성 품질 고도화 기술개발