1 |
1
딥러닝 기반 음성 통신 전처리 시스템(100)으로서,다채널 마이크로 입력받은 멀티채널 음성으로부터 공간에 대한 공간 정보 및 음성에 대한 음성 정보를 추출하는 멀티채널 음성 전처리 모듈(110);상기 멀티채널 음성 전처리 모듈(110)로부터 추출된 공간 정보 및 음성 정보를 전달받고, 공간 정보가 추출 처리된 음성의 왜곡을 보정하여 향상된 음성을 출력하는 음성 왜곡 보정 모듈(120);상기 음성 왜곡 보정 모듈(120)로부터 음성의 왜곡이 보정된 향상된 복합 음성을 전달받고, 향상된 복합 음성을 각각의 개별 음성으로 분리하는 복합 음성 분리 모듈(130); 및상기 복합 음성 분리 모듈(130)로부터 개별로 분리된 음성을 각각 압축하여 음성 채널을 통해 전송하고, 전송받은 압축된 음성에 대해 복원하는 음성 코덱 모듈(140)을 포함하는 것을 특징으로 하는, 딥러닝 기반 음성 통신 전처리 시스템
|
2 |
2
제1항에 있어서, 상기 멀티채널 음성 전처리 모듈(110)은,다채널 마이크로 입력되는 음성의 마이크 배열에 따라 채널별로 입력되는 음성들의 정보를 취합하여 활용 가능한 공간적 임베딩을 추출하는 네트워크로 구성되는 것을 특징으로 하는, 딥러닝 기반 음성 통신 전처리 시스템
|
3 |
3
제1항에 있어서, 상기 음성 왜곡 보정 모듈(120)은,상기 멀티채널 음성 전처리 모듈(110)로부터 추출된 공간 정보 및 음성 정보를 전달받아 공간 정보가 추출 처리된 음성의 왜곡을 보정하여 향상된 음성을 상기 복합 음성 분리 모듈(130)로 출력하되, 음성 분리를 위한 화자의 수를 측정하여 측정된 화자의 수를 복합 음성 분리 모듈(130)로 출력하는 화자 수 측정 모듈(121)을 더 포함하여 구성하는 것을 특징으로 하는, 딥러닝 기반 음성 통신 전처리 시스템
|
4 |
4
제1항 내지 제3항 중 어느 한 항에 있어서, 상기 복합 음성 분리 모듈(130)은,상기 음성 왜곡 보정 모듈(120)로부터 음성의 왜곡이 보정된 향상된 복합 음성을 전달받고, 음성의 특징을 추출하는 인코더(131);상기 인코더(131)를 통해 추출된 음성의 특징들을 분리해주는 음성 분리 네트워크(132); 및상기 음성 분리 네트워크(132)를 통해 분리된 음성의 특징들을 다시 음성으로 복원하는 디코더(133)를 포함하여 구성하는 것을 특징으로 하는, 딥러닝 기반 음성 통신 전처리 시스템
|
5 |
5
제4항에 있어서, 상기 음성 코덱 모듈(140)은,상기 복합 음성 분리 모듈(130)로부터 개별로 분리된 음성을 각각 압축하는 인코더(141); 및음성 채널을 통해 전송받은 압축된 음성에 대해 복원하는 뉴럴 디코더(142)를 포함하여 구성하는 것을 특징으로 하는, 딥러닝 기반 음성 통신 전처리 시스템
|
6 |
6
제5항에 있어서, 상기 음성 코덱 모듈(140)의 인코더(141)는,상기 복합 음성 분리 모듈(130)로부터 개별로 분리된 음성을 각각 압축하되, 음성을 인코딩하여 비트 스트림(bit stream)으로 음성 정보를 압축 처리하는 것을 특징으로 하는, 딥러닝 기반 음성 통신 전처리 시스템
|
7 |
7
제6항에 있어서, 상기 음성 통신 전처리 시스템(100)은,상기 멀티채널 음성 전처리 모듈(110)과, 음성 왜곡 보정 모듈(120)과, 복합 음성 분리 모듈(130), 및 음성 코덱 모듈(140)을 딥러닝 기반의 하나의 통합 모델로 구성하는 것을 특징으로 하는, 딥러닝 기반 음성 통신 전처리 시스템
|