1 |
1
순환신경망(Recurrent Neural Network, RNN) 기반의 음향 임베딩 추출부, 음소 임베딩 추출부 및 디코더 임베딩 추출부에 마이크 입력신호로부터 추출된 음향 특징벡터열을 입력하는 단계; 상기 음향 임베딩 추출부, 음소 임베딩 추출부 및 디코더 임베딩 추출부에서 음향 임베딩, 음소 임베딩 및 디코더 임베딩을 결합하여 특징벡터를 구성하는 단계; 및 결합된 상기 특징벡터를 심화신경망(Deep Neural Network, DNN) 기반의 분류기에 입력하여 음성 끝점을 검출하는 단계를 포함하는, 음성 끝점 검출 방법
|
2 |
2
제1항에 있어서,상기 음향 임베딩 추출부, 음소 임베딩 추출부 및 디코더 임베딩 추출부는, 순환신경망(Recurrent Neural Network, RNN) 중 GRU(Gated Recurrent Unit) 기반의 심화신경망 모델인 것을 특징으로 하는, 음성 끝점 검출 방법
|
3 |
3
제1항에 있어서,상기 음향 임베딩, 음소 임베딩 및 디코더 임베딩을 결합하여 특징벡터를 구성하는 단계는, 상기 음향 임베딩 추출부, 음소 임베딩 추출부 및 디코더 임베딩 추출부의 마지막 은닉 층의 은닉 상태를 결합하여 특징벡터를 구성하는 것을 특징으로 하는, 음성 끝점 검출 방법
|
4 |
4
제1항에 있어서,상기 음향 임베딩, 음소 임베딩 및 디코더 임베딩을 결합하여 특징벡터를 구성하는 단계는, 상기 음향 특징벡터열을 이용한 순환신경망 기반의 음성 끝점 검출기, 언어모델 기반의 EOU 검출기 및 음향모델을 각각 구축하고, 각각의 상기 순환신경망 기반의 음성 끝점 검출기, 언어모델 기반의 EOU 검출기 및 음향모델의 마지막 은닉 층을 각각 음향 임베딩, 디코더 임베딩 및 음소 임베딩으로 결합하여 하나의 특징벡터를 구성하는 것을 특징으로 하는, 음성 끝점 검출 방법
|
5 |
5
제1항에 있어서,학습 단계에서 음향 특징벡터열을 이용한 상기 음향 임베딩 추출부, 음소 임베딩 추출부 및 디코더 임베딩 추출부를 학습하는 단계를 더 포함하는, 음성 끝점 검출 방법
|
6 |
6
제5항에 있어서,음성 끝점 검출을 위한 상기 분류기를 학습하는 단계를 더 포함하고,상기 음향 임베딩 추출부, 음소 임베딩 추출부 및 디코더 임베딩 추출부를 학습하는 단계는, 학습 단계에서 음향 특징벡터열을 이용한 각각의 상기 순환신경망 기반의 음성 끝점 검출기, 언어모델 기반의 EOU 검출기 및 음향모델을 별도로 학습하며, 상기 분류기를 학습하는 단계는, 상기 순환신경망 기반의 음성 끝점 검출기, 언어모델 기반의 EOU 검출기 및 음향모델의 마지막 은닉 층의 은닉 유닛 상태를 음향 임베딩, 음소 임베딩 및 디코더 임베딩으로써 결합하여 상기 분류기를 학습하는 것을 특징으로 하는, 음성 끝점 검출 방법
|
7 |
7
제1항에 있어서,상기 특징벡터를 심화신경망 기반의 분류기에 입력하여 음성 끝점을 검출하는 단계는, 상기 특징벡터로부터 각 프레임을 음성 프레임, 발화 중 비음성 프레임, 발화 전 비음성 프레임 및 발화 후 비음성 프레임 중 적어도 어느 하나로 분류하여 음성 상태를 추정하는 단계; 및 추정된 상기 프레임별 음성 상태 중 발화 후 비음성 구간에 해당되는 노드의 확률 값을 EOS의 확률로 정의하고, 상기 EOS의 확률이 문턱 값보다 커지는 순간을 음성의 끝점으로 검출하는 단계를 포함하는, 음성 끝점 검출 방법
|
8 |
8
제1항에 있어서, 임베딩 추출을 위한 순환신경망 기반의 상기 음향 임베딩 추출부, 음소 임베딩 추출부 및 디코더 임베딩 추출부와 분류를 위한 심화신경망 기반의 분류기를 결합 학습하여 음성 끝점 검출 성능을 향상시키는 단계를 더 포함하는, 음성 끝점 검출 방법
|
9 |
9
순환신경망(Recurrent Neural Network, RNN) 기반의 음향 임베딩 추출부, 음소 임베딩 추출부 및 디코더 임베딩 추출부에 마이크 입력신호로부터 추출된 음향 특징벡터열을 입력하는 특징 추출부;상기 음향 임베딩 추출부, 음소 임베딩 추출부 및 디코더 임베딩 추출부에서 음향 임베딩, 음소 임베딩 및 디코더 임베딩을 결합하여 특징벡터를 구성하는 임베딩 추출부; 및 결합된 상기 특징벡터를 심화신경망(Deep Neural Network, DNN) 기반의 분류기에 입력하여 음성 끝점을 검출하는 분류기를 포함하는, 음성 끝점 검출 장치
|
10 |
10
제9항에 있어서,상기 음향 임베딩 추출부, 음소 임베딩 추출부 및 디코더 임베딩 추출부는, 순환신경망(Recurrent Neural Network, RNN) 중 GRU(Gated Recurrent Unit) 기반의 심화신경망 모델인 것을 특징으로 하는, 음성 끝점 검출 장치
|
11 |
11
제9항에 있어서,상기 임베딩 추출부는, 상기 음향 임베딩 추출부, 음소 임베딩 추출부 및 디코더 임베딩 추출부의 마지막 은닉 층의 은닉 상태를 결합하여 특징벡터를 구성하는 것를 포함하는, 음성 끝점 검출 장치
|
12 |
12
제9항에 있어서,상기 임베딩 추출부는, 상기 음향 특징벡터열을 이용한 순환신경망 기반의 음성 끝점 검출기, 언어모델 기반의 EOU 검출기 및 음향모델을 각각 구축하고, 각각의 순환신경망 기반의 음성 끝점 검출기, 언어모델 기반의 EOU 검출기 및 음향모델의 마지막 은닉 층을 각각 음향 임베딩, 디코더 임베딩 및 음소 임베딩으로 결합하여 하나의 특징벡터를 구성하는 것을 특징으로 하는, 음성 끝점 검출 장치
|
13 |
13
제9항에 있어서,상기 임베딩 추출부는, 학습 단계에서 음향 특징벡터열을 이용한 각각의 상기 순환신경망 기반의 음성 끝점 검출기, 언어모델 기반의 EOU 검출기 및 음향모델을 별도로 학습하며, 상기 분류기는, 학습 단계에서 상기 순환신경망 기반의 음성 끝점 검출기, 언어모델 기반의 EOU 검출기 및 음향모델의 마지막 은닉 층의 은닉 유닛 상태를 음향 임베딩, 음소 임베딩 및 디코더 임베딩으로써 결합하여 상기 분류기를 학습하는 것을 특징으로 하는, 음성 끝점 검출 장치
|
14 |
14
제9항에 있어서,상기 분류기는, 상기 특징벡터로부터 각 프레임을 음성 프레임, 발화 중 비음성 프레임, 발화 전 비음성 프레임 및 발화 후 비음성 프레임 중 적어도 어느 하나로 분류하여 음성 상태를 추정하고, 추정된 상기 프레임별 음성 상태 중 발화 후 비음성 구간에 해당되는 노드의 확률 값을 EOS의 확률로 정의하고, 상기 EOS의 확률이 문턱 값보다 커지는 순간을 음성의 끝점으로 검출하는 것를 포함하는, 음성 끝점 검출 장치
|
15 |
15
제9항에 있어서, 임베딩 추출을 위한 순환신경망 기반의 상기 음향 임베딩 추출부, 음소 임베딩 추출부 및 디코더 임베딩 추출부와 분류를 위한 심화신경망 기반의 분류기를 결합 학습하여 음성 끝점 검출 성능을 향상시키는 것을 특징으로 하는, 음성 끝점 검출 장치
|