맞춤기술찾기

이전대상기술

음성인식 방법 및 그 장치

  • 기술번호 : KST2019002821
  • 담당센터 : 서울서부기술혁신센터
  • 전화번호 : 02-6124-6930
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 본 발명의 음성인식 방법은 잔향환경의 음성 신호로부터 특징 벡터를 추출하는 단계와, 상기 특징 벡터로부터 상기 잔향환경을 추정하는 단계와, 상기 특징 벡터를 상기 잔향환경별로 분류하여 학습 데이터세트를 생성하고, 상기 학습 데이터세트를 결합학습하여 음향모델 파라미터를 생성하는 단계와, 상기 음향모델 파라미터를 가중결합하여 앙상블 모델(ensemble joint acoustic model, EJAM)을 구성하는 단계 및 상기 앙상블 모델 및 언어 모델을 이용하여 상기 특징 벡터와 부합하는 단어열을 검색하는 단계를 포함하여, 광범위한 잔향환경에서 정확한 음성 인식을 할 수 있는 효과를 제공한다.
Int. CL G10L 15/14 (2006.01.01) G10L 15/183 (2013.01.01) G10L 15/16 (2006.01.01) G10L 15/20 (2006.01.01) G10L 19/038 (2013.01.01) G10L 15/06 (2006.01.01) G10L 21/0216 (2013.01.01) G10L 21/0208 (2013.01.01)
CPC G10L 15/14(2013.01)G10L 15/14(2013.01)G10L 15/14(2013.01)G10L 15/14(2013.01)G10L 15/14(2013.01)G10L 15/14(2013.01)G10L 15/14(2013.01)G10L 15/14(2013.01)
출원번호/일자 1020170121241 (2017.09.20)
출원인 현대자동차주식회사, 기아자동차주식회사, 한양대학교 산학협력단
등록번호/일자
공개번호/일자 10-2019-0032868 (2019.03.28) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 공개
심사진행상태 수리
심판사항
구분 신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2020.08.27)
심사청구항수 20

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 현대자동차주식회사 대한민국 서울특별시 서초구
2 기아자동차주식회사 대한민국 서울특별시 서초구
3 한양대학교 산학협력단 대한민국 서울특별시 성동구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 김비호 대한민국 경기도 화성시
2 이모아 대한민국 서울특별시 성동구
3 장준혁 대한민국 서울특별시 성동구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 특허법인태평양 대한민국 서울특별시 중구 청계천로 **, *층(다동, 예금보험공사빌딩)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2017.09.20 수리 (Accepted) 1-1-2017-0918208-11
2 출원인정보변경(경정)신고서
Notification of change of applicant's information
2018.09.04 수리 (Accepted) 4-1-2018-5179063-18
3 출원인정보변경(경정)신고서
Notification of change of applicant's information
2019.07.25 수리 (Accepted) 4-1-2019-5148973-60
4 출원인정보변경(경정)신고서
Notification of change of applicant's information
2019.07.26 수리 (Accepted) 4-1-2019-5150191-76
5 출원인정보변경(경정)신고서
Notification of change of applicant's information
2019.08.05 수리 (Accepted) 4-1-2019-5155816-75
6 출원인정보변경(경정)신고서
Notification of change of applicant's information
2019.08.06 수리 (Accepted) 4-1-2019-5156285-09
7 [심사청구]심사청구서·우선심사신청서
2020.08.27 수리 (Accepted) 1-1-2020-0905047-45
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
잔향환경의 음성 신호로부터 특징 벡터를 추출하는 단계;상기 특징 벡터로부터 상기 잔향환경을 추정하는 단계;상기 특징 벡터를 상기 잔향환경별로 분류하여 학습 데이터세트를 생성하고, 상기 학습 데이터세트를 결합학습하여 음향모델 파라미터를 생성하는 단계;상기 음향모델 파라미터를 가중결합하여 앙상블 모델(ensemble joint acoustic model, EJAM)을 구성하는 단계; 및상기 앙상블 모델 및 언어 모델을 이용하여 상기 특징 벡터와 부합하는 단어열을 검색하는 단계를 포함하는 것을 특징으로 하는 음성인식 방법
2 2
청구항 1에 있어서,상기 특징 벡터를 추출하는 단계는상기 음성 신호를 음성 파형의 특징을 가지는 축약된 형식의 신호로 변환하는 것을 특징으로 하는 음성인식 방법
3 3
청구항 1에 있어서,상기 잔향환경을 추정하는 단계는상기 특징 벡터로부터 상기 잔향환경에 대한 확률을 추정하는 것을 특징으로 하는 음성인식 방법
4 4
청구항 1에 있어서,상기 잔향환경을 추정하는 단계는Convolution Neural Network를 사용하는 것을 특징으로 하는 음성인식 방법
5 5
청구항 1에 있어서,상기 음향모델 파라미터를 생성하는 단계는특징매핑 심화신경망을 이용하여 상기 학습 데이터세트를 학습시키는 단계;음향모델링 심화신경망을 이용하여 상기 학습 데이터세트를 학습시키는 단계;상기 특징매핑 심화신경망 및 상기 음향모델 심화신경망을 결합학습하는 단계를 포함하는 것을 특징으로 하는 음성인식 방법
6 6
청구항 5에 있어서,상기 특징매핑 심화신경망을 이용하여 상기 학습 데이터세트를 학습시키는 단계는상기 특징 벡터로부터 상기 잔향을 제거하도록 학습시키는 것을 특징으로 하는 음성인식 방법
7 7
청구항 6에 있어서,상기 음향모델링 심화신경망을 이용하여 상기 학습 데이터세트를 학습시키는 단계는상기 잔향이 제거된 특징 벡터로부터 음소를 구분하도록 학습시키는 것을 특징으로 하는 음성인식 방법
8 8
청구항 5에 있어서,상기 특징매핑 신경망의 출력층이 상기 음향모델링 심화신경망의 입력층이 되는 것을 특징으로 하는 음성인식 방법
9 9
청구항 5에 있어서,상기 결합학습하는 단계는오차 역전파 알고리즘(back-propagation)을 이용하여 하나의 심화신경망을 생성하는 것을 특징으로 하는 음성인식 방법
10 10
청구항 3에 있어서,상기 음향모델 파라미터를 가중결합하여 앙상블 모델을 구성하는 단계는상기 잔향환경에 대한 확률을 가중치로 사용하여 상기 음향모델 파라미터를 가중결합하는 것을 특징으로 하는 음성인식 방법
11 11
청구항 1에 있어서,상기 특징 벡터와 부합하는 단어열을 검색하는 단계는WFST(Weighted Finite State Transducer)를 사용하는 것을 특징으로 하는 음성인식 방법
12 12
청구항 1에 있어서,상기 언어 모델은 통계적 모델을 사용하여 상기 잔향환경의 음성 신호 내 단어들 사이의 관계를 찾는 것을 특징으로 하는 음성인식 방법
13 13
입력되는 잔향환경의 음성 신호를 특징 벡터로 축약시키는 음성특징추출부;상기 잔향환경의 음성 신호 내 단어들 사이의 관계를 찾아 언어모델을 생성하는 언어모델링부;상기 특징 벡터로부터 상기 잔향환경의 추정하는 잔향환경 추정부;상기 특징 벡터를 상기 잔향환경별로 분류하여 학습 데이터세트를 생성하고, 상기 학습 데이터세트를 결합학습하여 음향모델 파라미터를 생성하는 음향모델링부;상기 음향모델링부에서 생성된 복수의 음향모델 파라미터를 가중결합하여 앙상블 모델을 생성하는 가중결합부; 및상기 앙상블 모델과 상기 언어모델을 이용하여 상기 특징 벡터와 부합하는 단어열을 검색하는 음성인식부를 포함하는 것을 특징으로 하는 음성인식 장치
14 14
청구항 13에 있어서,상기 잔향환경 추정부는 상기 잔향환경에 대한 확률을 추정하는 것을 특징으로 하는 음성인식 장치
15 15
청구항 13에 있어서,상기 음향모델링부는 특징매핑 심화신경망 학습부, 음향모델링 심화신경망 학습부 및 결합학습부를 포함하는 것을 특징으로 하는 음성인식 장치
16 16
청구항 15에 있어서,상기 특징매핑 심화신경망 학습부는상기 특징 벡터로부터 상기 잔향을 제거하도록 설계되는 것을 특징으로 하는 음성인식 장치
17 17
청구항 16에 있어서,상기 음향모델링 심화신경망 학습부는상기 잔향이 제거된 특징 벡터로부터 음소를 구분하도록 설계되는 것을 특징으로 하는 음성인식 장치
18 18
청구항 15에 있어서,상기 결합학습부는오차 역전파 알고리즘(back-propagation)을 이용하여 하나의 심화신경망을 생성하는 것을 특징으로 하는 음성인식 장치
19 19
청구항 14에 있어서,상기 가중결합부는 상기 음향모델 파라미터를 가중결합하여 앙상블 모델을 구성하는 단계는상기 잔향환경에 대한 확률을 가중치로 사용하여 상기 음향모델 파라미터를 가중결합하는 것을 특징으로 하는 음성인식 장치
20 20
청구항 13에 있어서,상기 음성인식부는WFST(Weighted Finite State Transducer)를 사용하는 것을 특징으로 하는 음성인식 장치
지정국 정보가 없습니다
패밀리정보가 없습니다
국가 R&D 정보가 없습니다.