1 |
1
음성 정보를 입력 정보로 하고, 상기 음성 정보에 대응되는 얼라이먼트(alignment) 정보를 출력 정보로 하는 제1인공신경망 모듈을 포함하는 제1음향 모델(Acoustic Model); 및상기 음성 정보를 입력 정보로 하고, 상기 음성 정보에 대응되는 텍스트 정보를 출력 정보로 하는 제2인공신경망 모듈을 포함하는 제2음향 모델;을 포함하고,상기 제2음향 모델은,상기 얼라이먼트 정보를 기초로 상기 제2음향 모델의 학습을 수행하는데 필요한 레퍼런스 데이터를 생성한 후, 상기 레퍼런스 데이터 및 상기 텍스트 정보를 기초로 생성된 손실함수를 이용하여 상기 제2음향 모델의 파라미터를 보정하는 방법으로 학습을 수행하는 것을 특징으로 하는,얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델
|
2 |
2
제 1항에 있어서,상기 제2음향 모델은,상기 얼라이먼트 정보를 기초로 어텐션 스코어 메트릭스(attention score matrix) 정보를 생성한 후, 상기 어텐션 스코어 메트릭스 정보를 기초로 학습을 수행하는 것을 특징으로 하는,얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델
|
3 |
3
제 1항에 있어서,상기 제2음향 모델은,상기 음성 정보 및 상기 얼라이먼트 정보 사이에 대응되는 부분을 구분하여 복수 개의 구간으로 분리한 후, 각각 대응되는 구간들 사이의 유사도(similarity) 정보를 기초로, 학습을 수행하는 것을 특징으로 하는, 얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델
|
4 |
4
제 3항에 있어서,상기 제2음향 모델은,상기 음성 정보 및 상기 얼라이먼트 정보를 사일런스(silence) 구간과 스피치(speech) 구간으로 분리한 후, 학습을 수행하는 것을 특징으로 하는, 얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델
|
5 |
5
제 4항에 있어서,상기 제2음향 모델은,상기 음성 정보의 사일런스 구간의 학습과, 상기 음성 정보의 스피치 구간은 각각 별도로 학습이 이루어지는 것을 특징으로 하는, 얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델
|
6 |
6
제4항에 있어서,상기 제2음향 모델은,상기 음성 정보에서의 사일런스 구간과 상기 얼라이먼트 정보에서의 사일런스 구간이 서로 대응되는 영역을 제1영역으로 구분하고, 상기 음성 정보에서의 스피치 구간과 상기 얼라이먼트 정보에서의 스피치 구간이 서로 대응되는 영역을 제2영역으로 구분한 후,상기 제1영역과 상기 제2영역은 서로 다른 방법으로 학습을 수행하는 것을 특징으로 하는, 얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델
|
7 |
7
제6항에 있어서,상기 제2음향 모델은,상기 제1영역의 유사도 값이 상기 제2영역의 유사도 값보다 더 큰 값을 가지도록 학습을 수행하는 것을 특징으로 하는,얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델
|
8 |
8
제7항에 있어서,상기 제2음향 모델은,상기 제1영역의 유사도 값은 1에 수렴하도록 학습을 수행하고, 상기 제2영역의 유사도 값은 0에 수렴하도록 학습을 수행하는 것을 특징으로 하는,얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델
|
9 |
9
제 4항에 있어서,상기 제2음향 모델은,상기 음성 정보의 사일런스 구간과 상기 음성 정보의 사일런스 구간에 대응되는 상기 얼라이먼트 정보의 사일런스 구간 사이의 제1-1유사도 값; 및상기 음성 정보의 사일런스 구간과 상기 음성 정보의 사일런스 구간에 대응되는 상기 얼라이먼트 정보의 스피치 구간 사이의 제2-1유사도 값;을 기초로 학습을 수행하는 것을 특징으로 하는, 얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델
|
10 |
10
제9항에 있어서,상기 제2음향 모델은,상기 제1-1유사도 값이 상기 제2-1유사도 값보다 더 큰 값을 가지도록 학습을 수행하는 것을 특징으로 하는,얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델
|
11 |
11
제 4항에 있어서,상기 제2음향 모델은,상기 음성 정보의 스피치 구간과 상기 음성 정보의 스피치 구간에 대응되는 상기 얼라이먼트 정보의 스피치 구간 사이의 제1-2유사도 값; 및상기 음성 정보의 스피치 구간과 상기 음성 정보의 스피치 구간에 대응되는 상기 얼라이먼트 정보의 사일런스 구간 사이의 제2-2유사도 값;을 기초로 학습을 수행하는 것을 특징으로 하는, 얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델
|
12 |
12
제11항에 있어서,상기 제2음향 모델은,상기 제1-2유사도 값이 상기 제2-2유사도 값보다 더 큰 값을 가지도록 학습을 수행하는 것을 특징으로 하는,얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델
|
13 |
13
음성 정보를 입력 정보로 하고, 상기 음성 정보에 대해 대응되는 얼라이먼트(alignment) 정보를 출력 정보로 하는 제1인공신경망 모듈을 포함하는 제1음향 모델(Acoustic Model)을 이용하여, 상기 얼라이먼트 정보를 생성하는 단계; 및상기 음성 정보를 입력 정보로 하고, 상기 음성 정보에 대해 대응되는 텍스트 정보를 출력 정보로 하는 제2인공신경망 모듈을 포함하는 제2음향 모델을 이용하여 상기 텍스트 정보를 출력하는 단계;를 포함하고,상기 텍스트 정보를 출력하는 단계는,상기 얼라이먼트 정보를 기초로 상기 제2음향 모델의 학습을 수행하는데 필요한 레퍼런스 데이터를 생성한 후, 상기 레퍼런스 데이터 및 상기 텍스트 정보를 기초로 생성된 손실함수를 이용하여 상기 제2음향 모델의 파라미터를 보정하는 방법으로 학습을 수행하는 단계를 포함하는 것을 특징으로 하는,얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델 학습 방법
|
14 |
14
음성 정보를 입력 정보로 하고, 상기 음성 정보에 대해 대응되는 얼라이먼트(alignment) 정보를 출력 정보로 하는 제1인공신경망 모듈을 포함하는 제1음향 모델(Acoustic Model); 및상기 음성 정보를 입력 정보로 하고, 상기 음성 정보에 대해 대응되는 텍스트 정보를 출력 정보로 하는 제2인공신경망 모듈을 포함하는 제2음향 모델;을 포함하고,상기 제2음향 모델은,상기 얼라이먼트 정보를 기초로 상기 제2음향 모델의 학습을 수행하는데 필요한 레퍼런스 데이터를 생성한 후, 상기 레퍼런스 데이터 및 상기 텍스트 정보를 기초로 생성된 손실함수를 이용하여 상기 제2음향 모델의 파라미터를 보정하는 방법으로 학습을 수행하는 것을 특징으로 하는,얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델을 포함하는 음성 인식 장치
|
15 |
15
제 14항에 있어서,상기 제2음향 모델은,상기 얼라이먼트 정보를 기초로 어텐션 스코어 메트릭스(attention score matrix) 정보를 생성한 후, 생성된 어텐션 스코어 메트릭스 정보를 기초로 학습을 수행하는 것을 특징으로 하는,얼라이먼트 정보를 기초로 구간별 학습을 수행하는 음향 모델을 포함하는 음성 인식 장치
|