맞춤기술찾기

이전대상기술

안면 인장 데이터를 사용한 음성 인식

  • 기술번호 : KST2022016896
  • 담당센터 : 서울동부기술혁신센터
  • 전화번호 : 02-2155-3662
요약, Int. CL, CPC, 출원번호/일자, 출원인, 등록번호/일자, 공개번호/일자, 공고번호/일자, 국제출원번호/일자, 국제공개번호/일자, 우선권정보, 법적상태, 심사진행상태, 심판사항, 구분, 원출원번호/일자, 관련 출원번호, 기술이전 희망, 심사청구여부/일자, 심사청구항수의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 서지정보 표입니다.
요약 컴퓨팅 장치는, 각 훈련 데이터가 안면의 복수의 위치에서의 안면 인장 데이터를 포함하는 훈련 데이터 세트에 기초해서, 복수의 위치 중에서 최적 위치를 결정하기 위한 위치 최적화 모델을 훈련하고, 훈련 데이터 세트 중에서 위치 최적화 모델에서 결정된 최적 위치에서의 훈련 데이터에 기초해서, 안면 인장 데이터로부터 음성을 분류하기 위한 음성 분류 모델을 훈련한다.
Int. CL G10L 15/24 (2006.01.01) G06K 9/00 (2022.01.01) G06T 7/70 (2017.01.01) G10L 15/08 (2006.01.01) G10L 15/06 (2006.01.01) G06N 20/00 (2019.01.01)
CPC G10L 15/24(2013.01) G06V 40/16(2013.01) G06T 7/70(2013.01) G10L 15/08(2013.01) G10L 15/063(2013.01) G06N 20/00(2013.01)
출원번호/일자 1020210021910 (2021.02.18)
출원인 삼성전자주식회사, 서울대학교산학협력단
등록번호/일자
공개번호/일자 10-2022-0118583 (2022.08.26) 문서열기
공고번호/일자
국제출원번호/일자
국제공개번호/일자
우선권정보
법적상태 공개
심사진행상태 수리
심판사항
구분 국내출원/신규
원출원번호/일자
관련 출원번호
심사청구여부/일자 N
심사청구항수 20

출원인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 출원인 표입니다.
번호 이름 국적 주소
1 삼성전자주식회사 대한민국 경기도 수원시 영통구
2 서울대학교산학협력단 대한민국 서울특별시 관악구

발명자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 발명자 표입니다.
번호 이름 국적 주소
1 윤성로 서울시 관악구
2 김은지 서울시 관악구
3 김희승 서울시 관악구

대리인

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 대리인 표입니다.
번호 이름 국적 주소
1 팬코리아특허법인 대한민국 서울특별시 강남구 논현로**길 **, 역삼***빌딩 (역삼동)

최종권리자

번호, 이름, 국적, 주소의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 인명정보 - 최종권리자 표입니다.
번호 이름 국적 주소
최종권리자 정보가 없습니다
번호, 서류명, 접수/발송일자, 처리상태, 접수/발송일자의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 행정처리 표입니다.
번호 서류명 접수/발송일자 처리상태 접수/발송번호
1 [특허출원]특허출원서
[Patent Application] Patent Application
2021.02.18 수리 (Accepted) 1-1-2021-0198253-94
2 특허고객번호 정보변경(경정)신고서·정정신고서
2021.07.29 수리 (Accepted) 4-1-2021-5205564-29
3 특허고객번호 정보변경(경정)신고서·정정신고서
2022.04.04 수리 (Accepted) 4-1-2022-5079741-71
4 특허고객번호 정보변경(경정)신고서·정정신고서
2022.08.11 수리 (Accepted) 4-1-2022-5189083-38
번호, 청구항의 정보를 제공하는 이전대상기술 뷰 페이지 상세정보 > 청구항 표입니다.
번호 청구항
1 1
적어도 하나의 명령어를 저장하기 위한 메모리, 그리고상기 명령어를 실행하는 프로세서를 포함하며,상기 명령어를 실행함으로써, 상기 프로세서는,각 훈련 데이터가 안면의 복수의 위치에서의 안면 인장 데이터를 포함하는 제1 훈련 데이터 세트로부터 제1 훈련 데이터를 선택하고,위치 최적화 모델을 통해 상기 제1 훈련 데이터의 상기 복수의 위치에서의 안면 인장 데이터로부터 특성을 각각 추출하고,상기 위치 최적화 모델을 통해 상기 복수의 위치 중에서 일부 위치를 선택하고,상기 위치 최적화 모델을 통해 상기 일부 위치에서의 상기 특성으로부터 음성을 분류하고,상기 위치 최적화 모델의 손실을 계산하고,상기 손실에 기초해서 상기 위치 최적화 모델을 갱신하는컴퓨팅 장치
2 2
제1항에서,상기 프로세서는 상기 제1 훈련 데이터 세트로부터 다른 제1 훈련 데이터를 선택하고, 상기 특성을 추출하는 동작, 상기 일부 위치를 선택하는 동작, 상기 음성을 분류하는 동작, 상기 손실을 계산하는 동작 및 상기 위치 최적화 모델을 갱신하는 동작을 반복하는, 컴퓨팅 장치
3 3
제2항에서,상기 프로세서는 상기 위치 최적화 모델을 통해 선택되는 상기 일부 위치가 수렴할 때까지 상기 반복을 수행하는, 컴퓨팅 장치
4 4
제1항에서,상기 손실은 상기 음성의 분류에 따른 제1 손실 및 상기 일부 위치의 선택에 따른 제2 손실을 포함하는, 컴퓨팅 장치
5 5
제4항에서,상기 프로세서는 상기 일부 위치에 할당된 중요도 계수에 기초해서 상기 제2 손실을 계산하는, 컴퓨팅 장치
6 6
제4항에서,상기 프로세서는 상기 특성으로부터 음성을 분류하여서 예측한 예측 값과 상기 제1 훈련 데이터에 대응하는 음성에 기초해서 상기 제1 손실을 계산하는, 컴퓨팅 장치
7 7
제1항에서,상기 프로세서는 상기 일부 위치의 개수를 줄이는 방향으로 상기 위치 최적화 모델을 갱신하는, 컴퓨팅 장치
8 8
제1항에서,상기 안면 인장 데이터는 시계열 안면 인장 데이터를 포함하며,상기 특성은 상기 시계열 안면 인장 데이터의 시간에 따른 변화 특성을 포함하는컴퓨팅 장치
9 9
제8항에서,각 위치에서의 상기 시계열 안면 인장 데이터는 각 위치를 중심 지점으로 하는 안면 상의 두 지점의 시간에 따른 위치 변화를 나타내는, 컴퓨팅 장치
10 10
제1항에서,상기 프로세서는,상기 위치 최적화 모델을 통해 상기 복수의 위치 중에서 최적 위치를 결정하고, 상기 제1 훈련 데이터 세트로부터 제2 훈련 데이터를 선택하고,음성 분류 모델을 통해 상기 제2 훈련 데이터 중에서 상기 최적 위치에서의 안면 인장 데이터로부터 특성을 각각 추출하고,상기 음성 분류 모델을 통해 상기 최적 위치에서의 상기 특성으로부터 음성을 분류하고,상기 음성 분류 모델의 손실을 계산하고,상기 음성 분류 모델의 손실에 기초해서 상기 음성 분류 모델을 갱신하는컴퓨팅 장치
11 11
제10항에서,상기 프로세서는 상기 최적 위치에서의 상기 특성으로부터 음성을 분류하여서 예측한 예측 값과 상기 제2 훈련 데이터에 대응하는 음성에 기초해서 상기 음성 분류 모델의 손실을 계산하는, 컴퓨팅 장치
12 12
제1항에서,상기 프로세서는,상기 위치 최적화 모델을 통해 상기 복수의 위치 중에서 최적 위치를 결정하고,각 훈련 데이터가 안면의 상기 최적 위치에서의 안면 인장 데이터를 포함하는 제2 훈련 데이터 세트로부터 제2 훈련 데이터를 선택하고,음성 분류 모델을 통해 상기 제2 훈련 데이터의 상기 최적 위치에서의 안면 인장 데이터로부터 특성을 각각 추출하고,상기 음성 분류 모델을 통해 상기 최적 위치에서의 상기 특성으로부터 음성을 분류하고,상기 음성 분류 모델의 손실을 계산하고,상기 음성 분류 모델의 손실에 기초해서 상기 음성 분류 모델을 갱신하는컴퓨팅 장치
13 13
적어도 하나의 명령어를 저장하기 위한 메모리, 그리고상기 명령어를 실행하는 프로세서를 포함하며,상기 명령어를 실행함으로써, 상기 프로세서는,음성을 발성하는 사용자의 안면을 촬영한 영상에 기초해서 생성된 상기 안면의 지정된 위치에서의 안면 인장 데이터를 수신하고,제1 기계학습 모델에 기초해서 상기 안면 인장 데이터로부터 상기 음성을 인식하는음성 인식 장치
14 14
제13항에서,상기 지정된 위치는 상기 안면의 복수의 위치 중에서 제2 기계학습 모델에 의해 결정되는, 음성 인식 장치
15 15
제14항에서,상기 제2 기계학습 모델은,복수의 훈련 데이터를 포함하는 훈련 데이터 세트로부터 훈련 데이터를 선택하고,상기 제2 기계학습 모델을 통해, 선택한 상기 훈련 데이터의 상기 복수의 위치에서의 안면 인장 데이터로부터 특성을 각각 추출하고,상기 제2 기계학습 모델을 통해, 상기 복수의 위치 중에서 일부 위치를 선택하고,상기 제2 기계학습 모델을 통해, 상기 일부 위치에서의 상기 특성으로부터 음성을 분류하고,상기 제2 기계학습 모델을 손실을 계산하고,상기 손실에 기초해서 상기 제2 기계학습 모델을 갱신함으로써 훈련되는음성 인식 장치
16 16
제13항에서,상기 제1 기계학습 모델은복수의 훈련 데이터를 포함하는 훈련 데이터 세트로부터 훈련 데이터를 선택하고,상기 제1 기계학습 모델을 통해, 선택한 상기 훈련 데이터의 상기 지정된 위치에서의 안면 인장 데이터로부터 특성을 각각 추출하고,상기 제1 기계학습 모델을 통해, 상기 지정된 위치에서의 상기 특성으로부터 음성을 분류하고,상기 제1 기계학습 모델의 손실을 계산하고,상기 손실에 기초해서 상기 제1 기계학습 모델을 갱신함으로써 훈련되는음성 인식 장치
17 17
컴퓨팅 장치에 의해 실행되며, 기록 매체에 저장되어 있는 컴퓨터 프로그램으로서,상기 컴퓨터 프로그램은, 상기 컴퓨팅 장치가,각 훈련 데이터가 안면의 복수의 위치에서의 안면 인장 데이터를 포함하는 훈련 데이터 세트에 기초해서, 상기 복수의 위치 중에서 최적 위치를 결정하기 위한 위치 최적화 모델을 훈련하는 단계, 그리고상기 훈련 데이터 세트 중에서 상기 위치 최적화 모델에서 결정된 최적 위치에서의 훈련 데이터에 기초해서, 안면 인장 데이터로부터 음성을 분류하기 위한 음성 분류 모델을 훈련하는 단계를 실행하도록 하는 컴퓨터 프로그램
18 18
제17항에서,상기 컴퓨터 프로그램은, 상기 컴퓨팅 장치가 상기 위치 최적화 모델을 훈련할 때,상기 훈련 데이터 세트로부터 제1 훈련 데이터를 선택하는 단계,상기 위치 최적화 모델을 통해 상기 제1 훈련 데이터의 상기 복수의 위치에서의 안면 인장 데이터로부터 특성을 각각 추출하는 단계,상기 위치 최적화 모델을 통해 상기 복수의 위치 중에서 일부 위치를 선택하는 단계,상기 위치 최적화 모델을 통해 상기 일부 위치에서의 상기 특성으로부터 음성을 분류하는 단계,상기 위치 최적화 모델의 손실을 계산하는 단계, 그리고상기 손실에 기초해서 상기 위치 최적화 모델을 갱신하는 단계를 실행하도록 하는 컴퓨터 프로그램
19 19
제18항에서,상기 손실은 상기 음성의 분류에 따른 제1 손실 및 상기 일부 위치의 선택에 따른 제2 손실을 포함하는, 컴퓨터 프로그램
20 20
제17항에서,상기 컴퓨터 프로그램은, 상기 컴퓨팅 장치가, 상기 음성 분류 모델을 훈련할 때,상기 훈련 데이터 세트로부터 제2 훈련 데이터를 선택하는 단계,상기 음성 분류 모델을 통해 상기 제2 훈련 데이터의 상기 최적 위치에서의 안면 인장 데이터로부터 특성을 각각 추출하는 단계,상기 음성 분류 모델을 통해 상기 최적 위치에서의 상기 특성으로부터 음성을 분류하는 단계,상기 음성 분류 모델의 손실을 계산하는 단계, 그리고상기 음성 분류 모델의 손실에 기초해서 상기 음성 분류 모델을 갱신하는 단계를 실행하도록 하는 컴퓨터 프로그램
지정국 정보가 없습니다
패밀리정보가 없습니다
국가 R&D 정보가 없습니다.