맞춤기술찾기

이전대상기술

화자 인식을 위한 뉴럴 네트워크 장치, 및 그 동작 방법

  • 기술번호 : KST2019006213
  • 담당센터 : 서울동부기술혁신센터
  • 전화번호 : 02-2155-3662
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 음성 분리 기능을 갖는 제 1 뉴럴 네트워크에 적어도 하나의 레이어를 부가하여 제 2 뉴럴 네트워크를 생성할 수 있고, 제 2 뉴럴 네트워크를 훈련시켜, 음성 분리 및 화자 인식 기능을 동시에 갖는 제 2 뉴럴 네트워크를 생성하는 방법 및 이를 위한 뉴럴 네트워크 장치를 제공한다.
Int. CL G10L 17/18 (2013.01.01) G10L 17/02 (2013.01.01)
CPC G10L 17/18(2013.01) G10L 17/18(2013.01) G10L 17/18(2013.01) G10L 17/18(2013.01)
출원번호/일자 1020170157507 (2017.11.23)
출원인 삼성전자주식회사, 서울대학교산학협력단
등록번호/일자
공개번호/일자 10-2019-0060028 (2019.06.03) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 공개
심사진행상태 수리
심판사항
구분 신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 Y (2020.11.23)
심사청구항수 19

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 삼성전자주식회사 대한민국 경기도 수원시 영통구
2 서울대학교산학협력단 대한민국 서울특별시 관악구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 박상하 대한민국 서울특별시 서초구
2 김남수 서울특별시 관악구
3 김형용 서울특별시 관악구
4 강성찬 대한민국 경기도 수원시 영통구
5 김재흥 대한민국 서울특별시 관악구
6 윤용섭 대한민국 서울특별시 서초구
7 이충호 대한민국 경기도 안양시 동안구
8 홍혁기 대한민국 전남 목포시

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 리앤목특허법인 대한민국 서울 강남구 언주로 **길 **, *층, **층, **층, **층(도곡동, 대림아크로텔)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2017.11.23 수리 (Accepted) 1-1-2017-1170276-95
2 출원인정보변경(경정)신고서
Notification of change of applicant's information
2019.05.13 수리 (Accepted) 4-1-2019-5093546-10
3 출원인정보변경(경정)신고서
Notification of change of applicant's information
2019.05.23 수리 (Accepted) 4-1-2019-5101798-31
4 출원인정보변경(경정)신고서
Notification of change of applicant's information
2019.08.02 수리 (Accepted) 4-1-2019-5154561-59
5 [심사청구]심사청구서·우선심사신청서
2020.11.23 수리 (Accepted) 1-1-2020-1256278-63
6 출원인정보변경(경정)신고서
Notification of change of applicant's information
2020.11.25 수리 (Accepted) 4-1-2020-5265458-48
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
화자 인식을 위한 뉴럴 네트워크 장치에 있어서,하나 이상의 명령어(instruction)를 저장하는 메모리; 및상기 하나 이상의 명령어를 실행함으로써, 제 1 뉴럴 네트워크를 훈련시켜, 혼합 음성 신호를 개별 음성 신호들로 분리하도록 훈련된 제 1 뉴럴 네트워크를 생성하고, 상기 훈련된 제 1 뉴럴 네트워크에 적어도 하나의 레이어를 부가하여 제 2 뉴럴 네트워크를 생성하고, 상기 제 2 뉴럴 네트워크를 훈련시켜, 혼합 음성 신호를 개별 음성 신호들로 분리하고 상기 개별 음성 신호들 각각에 대한 화자를 인식하도록 훈련된 제 2 뉴럴 네트워크를 생성하는, 프로세서를 포함하는, 뉴럴 네트워크 장치
2 2
제 1 항에 있어서,상기 프로세서는, 복수의 화자들의 혼합 음성 신호에 대한 정보를 상기 제 1 뉴럴 네트워크에 대한 입력 정보로써 획득하고,상기 복수의 화자들 각각의 개별 음성 신호에 대한 정보를 상기 제 1 뉴럴 네트워크에 대한 출력 정보로써 획득하고,상기 제 1 뉴럴 네트워크에 대한 입력 정보 및 출력 정보를 통해, 상기 제 1 뉴럴 네트워크를 훈련시키는, 뉴럴 네트워크 장치
3 3
제 1 항에 있어서,상기 프로세서는,복수의 화자들의 혼합 음성 신호에 대한 정보를 상기 제 2 뉴럴 네트워크에 대한 입력 정보로써 획득하고,상기 복수의 화자들 각각의 개별 음성 신호에 대한 화자 식별 정보를 출력 정보로써 획득하고,상기 제 2 뉴럴 네트워크에 대한 입력 정보 및 출력 정보를 통해 상기 제 2 뉴럴 네트워크를 훈련시키는, 뉴럴 네트워크 장치
4 4
제 1 항에 있어서,상기 프로세서는,상기 훈련된 제 1 뉴럴 네트워크의 출력 레이어를 제거하고, 적어도 하나의 히든 레이어 및 출력 레이어를 연결시켜, 상기 제 2 뉴럴 네트워크를 생성하는, 뉴럴 네트워크 장치
5 5
제 1 항에 있어서,혼합 음성 신호를 센싱하는 음향 센서;를 더 포함하고,상기 프로세서는,상기 훈련된 제 2 뉴럴 네트워크를 이용하여, 상기 센싱된 혼합 음성 신호에 대한 적어도 하나의 화자를 인식하는, 뉴럴 네트워크 장치
6 6
제 5 항에 있어서,상기 프로세서는,상기 훈련된 제 2 뉴럴 네트워크를 이용하여, 상기 센싱된 혼합 음성 신호에 포함된 적어도 하나의 개별 음성 신호에 대한 화자 인식용 특징 정보를 획득하고,상기 적어도 하나의 개별 음성 신호에 대한 화자 인식용 특징 정보와, 기 등록된 화자 인식용 특징 정보를 비교하여, 상기 센싱된 혼합 음성 신호에 대한 적어도 하나의 화자를 인식하는, 뉴럴 네트워크 장치
7 7
제 6 항에 있어서,상기 프로세서는,상기 센싱된 혼합 음성 신호에 대한 정보가 입력된 상기 훈련된 제 2 뉴럴 네트워크의 마지막 히든 레이어의 출력 벡터를 추출하여, 상기 적어도 하나의 개별 음성 신호에 대한 화자 인식용 특징 정보를 획득하는, 뉴럴 네트워크 장치
8 8
제 5 항에 있어서,상기 음향 센서는, 광대역 마이크로폰, 공진기 마이크로폰, 협대역 공진기 마이크로폰 어레이 중 적어도 하나를 포함하는, 뉴럴 네트워크 장치
9 9
제 1 항에 있어서,화자의 음성 신호를 센싱하는 음향 센서;를 더 포함하고,상기 프로세서는,상기 훈련된 제 2 뉴럴 네트워크를 이용하여, 상기 화자의 음성 신호에 대한 화자 인식용 특징 정보를 획득하고, 상기 획득된 화자 인식용 특징 정보를 상기 화자의 식별 정보와 함께 저장하여, 상기 화자를 등록하는, 뉴럴 네트워크 장치
10 10
화자 인식을 위한 뉴럴 네트워크 장치의 동작 방법에 있어서,제 1 뉴럴 네트워크를 훈련시켜, 혼합 음성 신호를 개별 음성 신호들로 분리하도록 훈련된 제 1 뉴럴 네트워크를 생성하는 단계; 상기 훈련된 제 1 뉴럴 네트워크에 적어도 하나의 레이어를 부가하여 제 2 뉴럴 네트워크를 생성하는 단계; 및상기 제 2 뉴럴 네트워크를 훈련시켜, 혼합 음성 신호를 개별 음성 신호들로 분리하고 상기 개별 음성 신호들 각각에 대한 화자를 인식하도록 훈련된 제 2 뉴럴 네트워크를 생성하는 단계를 포함하는, 동작 방법
11 11
제 10 항에 있어서,상기 훈련된 제 1 뉴럴 네트워크를 생성하는 단계는,복수의 화자들의 혼합 음성 신호에 대한 정보를 상기 제 1 뉴럴 네트워크에 대한 입력 정보로써 획득하는 단계;상기 복수의 화자들 각각의 개별 음성 신호에 대한 정보를 상기 제 1 뉴럴 네트워크에 대한 출력 정보로써 획득하는 단계; 및상기 제 1 뉴럴 네트워크에 대한 입력 정보 및 출력 정보를 통해, 상기 제 1 뉴럴 네트워크를 훈련시키는 단계를 포함하는, 동작 방법
12 12
제 10 항에 있어서,상기 훈련된 제 2 뉴럴 네트워크를 생성하는 단계는,복수의 화자들의 혼합 음성 신호에 대한 정보를 상기 제 2 뉴럴 네트워크에 대한 입력 정보로써 획득하는 단계;상기 복수의 화자들 각각의 개별 음성 신호에 대한 화자 식별 정보를 출력 정보로써 획득하는 단계; 및상기 제 2 뉴럴 네트워크에 대한 입력 정보 및 출력 정보를 통해 상기 제 2 뉴럴 네트워크를 훈련시키는 단계를 포함하는, 동작 방법
13 13
제 10 항에 있어서,상기 제 2 뉴럴 네트워크를 생성하는 단계는,상기 훈련된 제 1 뉴럴 네트워크의 출력 레이어를 제거하고, 적어도 하나의 히든 레이어 및 출력 레이어를 연결시켜, 상기 제 2 뉴럴 네트워크를 생성하는, 동작 방법
14 14
제 10 항에 있어서,혼합 음성 신호를 획득하는 단계; 및상기 훈련된 제 2 뉴럴 네트워크를 이용하여, 상기 획득된 혼합 음성 신호에 대한 적어도 하나의 화자를 인식하는 단계를 더 포함하는, 동작 방법
15 15
제 14 항에 있어서,상기 적어도 하나의 화자를 인식하는 단계는,상기 훈련된 제 2 뉴럴 네트워크를 이용하여, 상기 획득된 혼합 음성 신호에 포함된 적어도 하나의 개별 음성 신호에 대한 화자 인식용 특징 정보를 획득하는 단계; 및상기 적어도 하나의 개별 음성 신호에 대한 화자 인식용 특징 정보와, 기 등록된 화자 인식용 특징 정보를 비교하여, 상기 획득된 혼합 음성 신호에 대한 적어도 하나의 화자를 인식하는 단계를 포함하는, 동작 방법
16 16
제 15 항에 있어서,상기 적어도 하나의 개별 음성 신호에 대한 화자 인식용 특징 정보를 획득하는 단계는,상기 센싱된 혼합 음성 신호에 대한 정보가 입력된 상기 훈련된 제 2 뉴럴 네트워크의 마지막 히든 레이어의 출력 벡터를 추출하여, 상기 적어도 하나의 개별 음성 신호에 대한 화자 인식용 특징 정보를 획득하는, 동작 방법
17 17
제 14 항에 있어서,상기 혼합 음성 신호를 획득하는 단계는,광대역 마이크로폰, 공진기 마이크로폰, 협대역 공진기 마이크로폰 어레이 중 적어도 하나를 이용하여, 상기 혼합 음성 신호를 센싱하는 단계를 포함하는, 동작 방법
18 18
제 10 항에 있어서,화자의 음성 신호를 획득하는 단계;상기 훈련된 제 2 뉴럴 네트워크를 이용하여, 상기 화자의 음성 신호에 대한 화자 인식용 특징 정보를 획득하는 단계; 및상기 획득된 화자 인식용 특징 정보를 상기 화자의 식별 정보와 함께 저장하여, 상기 화자를 등록하는 단계를 더 포함하는, 동작 방법
19 19
제 10 항 내지 18 항 중에 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체
지정국 정보가 없습니다
순번, 패밀리번호, 국가코드, 국가명, 종류의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 패밀리정보 - 패밀리정보 표입니다.
순번 패밀리번호 국가코드 국가명 종류
1 US20190156837 US 미국 FAMILY

DOCDB 패밀리 정보

순번, 패밀리번호, 국가코드, 국가명, 종류의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 패밀리정보 - DOCDB 패밀리 정보 표입니다.
순번 패밀리번호 국가코드 국가명 종류
1 US2019156837 US 미국 DOCDBFAMILY
국가 R&D 정보가 없습니다.