1 |
1
전자 장치에 있어서,임베딩 모듈(embedding module), 인코더(encoder), 어텐션 모듈(attention module) 및 디코더(decoder)를 포함하는 신경망 모델에 대한 정보를 저장하는 메모리; 및 상기 신경망 모델에 암호문 시퀀스를 입력하여, 상기 암호문 시퀀스가 복호화된 평문 시퀀스를 획득하는 프로세서; 를 포함하고, 상기 프로세서는,상기 암호문 시퀀스를 상기 임베딩 모듈에 입력하여, 상기 암호문 시퀀스가 수치화된 임베딩 벡터(embedding vector)를 획득하고,상기 임베딩 벡터를 상기 인코더에 입력하여, 상기 인코더에 포함된 복수의 제1 신경망 셀 각각에 대응되는 복수의 제1 은닉 상태 값(first hidden state value)을 획득하며, 상기 어텐션 모듈을 통해, 상기 디코더에 포함된 복수의 제2 신경망 셀 각각에 대응되는 복수의 제2 은닉 상태 값(second hidden state value) 별로, 상기 복수의 제1 은닉 상태 값 각각과의 유사도에 관련된 정보를 포함하는 복수의 어텐션 값(attention value)을 획득하고, 상기 디코더를 통해, 상기 복수의 제2 은닉 상태 값 및 상기 복수의 어텐션 값을 바탕으로 상기 평문 시퀀스를 획득하는 프로세서; 를 포함하는 전자 장치
|
2 |
2
제1 항에 있어서,상기 프로세서는,상기 복수의 제2 은닉 상태 값 별로 상기 복수의 제1 은닉 상태 값 각각과의 유사도에 관련된 복수의 어텐션 스코어를 획득하고, 상기 복수의 어텐션 스코어를 정규화하여 복수의 어텐션 가중치를 획득하며, 상기 복수의 어텐션 가중치와 상기 복수의 제1 은닉 상태 값을 가중합하여 상기 복수의 어텐션 값을 획득하는 전자 장치
|
3 |
3
제1 항에 있어서,상기 프로세서는, 상기 복수의 제2 은닉 상태 값 및 상기 복수의 어텐션 값을 연결(concatenate)하여 중간 벡터를 획득하고, 상기 중간 벡터를 상기 디코더에 입력하여 상기 평문 시퀀스를 획득하는 전자 장치
|
4 |
4
제1 항에 있어서, 상기 복수의 제1 신경망 셀은 상기 인코더 내에서 순차적으로 배치된 LSTM(long short-term memory) 신경망을 포함하고, 상기 복수의 제2 신경망 셀은 상기 디코더 내에서 순차적으로 배치된 LSTM 신경망을 포함하는 전자 장치
|
5 |
5
제1 항에 있어서,상기 프로세서는,상기 암호문 시퀀스에서 구두점(punctuation) 및 공백을 제외하고, 상기 암호문 시퀀스에 포함된 띄어쓰기를 기준으로 상기 구두점이 제외된 암호문 시퀀스를 복수의 토큰으로 분할하며, 상기 복수의 토큰을 상기 임베딩 모듈에 입력하여 상기 임베딩 벡터를 획득하는 전자 장치
|
6 |
6
제1 항에 있어서,상기 프로세서는,Word2Vec 기법을 바탕으로 전처리를 수행하여 상기 임베딩 벡터를 획득하는 전자 장치
|
7 |
7
제1 항에 있어서,상기 프로세서는,continuous relaxation 기법을 바탕으로 전처리를 수행하여 상기 임베딩 벡터를 획득하는 전자 장치
|
8 |
8
제1 항에 있어서,상기 신경망 모델은 상기 암호문 시퀀스 및 상기 평문 시퀀스 사이의 차이에 따른 교차 엔트로피 손실 함수(cross-entropy loss function)를 바탕으로 학습되는 전자 장치
|
9 |
9
제1 항에 있어서, 상기 신경망 모델은 서로 다른 평문 시퀀스들 각각에 포함된 단어들이 동일하더라도 상기 단어들의 위치가 상이하면 서로 다른 암호문 시퀀스에 대응되는 암호학적 특성을 바탕으로 상기 입력된 암호문 시퀀스를 복호화함으로써 상기 평문 시퀀스를 출력하는 전자 장치
|
10 |
10
제9 항에 있어서, 상기 디코더는 완전 연결 레이어(fully connected layer)를 더 포함하고, 상기 어텐션 모듈은 상기 디코더에서 평문 시퀀스를 예측하는 모든 시점(time step)마다 상기 입력된 암호문 시퀀스 전체를 다시 한번 참고하여 상기 복수의 어텐션 값을 출력하며, 상기 신경망 모델은 상기 완전 연결 레이어를 통해 상기 단어들 간의 상관관계를 참조하여, 상기 입력된 암호문 시퀀스를 복호화함으로써 상기 평문 시퀀스를 출력하는 전자 장치
|
11 |
11
임베딩 모듈(embedding module), 인코더(encoder), 어텐션 모듈(attention module) 및 디코더(decoder)를 포함하는 신경망 모델을 이용하여 암호문 시퀀스를 해독하기 위한 전자 장치의 제어 방법에 있어서,상기 암호문 시퀀스를 상기 임베딩 모듈에 입력하여, 상기 암호문 시퀀스가 수치화된 임베딩 벡터(embedding vector)를 획득하는 단계;상기 임베딩 벡터를 상기 인코더에 입력하여, 상기 인코더에 포함된 복수의 제1 신경망 셀 각각에 대응되는 복수의 제1 은닉 상태 값(first hidden state value)을 획득하는 단계; 상기 어텐션 모듈을 통해, 상기 디코더에 포함된 복수의 제2 신경망 셀 각각에 대응되는 복수의 제2 은닉 상태 값(second hidden state value) 별로, 상기 복수의 제1 은닉 상태 값 각각과의 유사도에 관련된 정보를 포함하는 복수의 어텐션 값(attention value)을 획득하는 단계; 및상기 디코더를 통해, 상기 복수의 제2 은닉 상태 값 및 상기 복수의 어텐션 값을 바탕으로 상기 평문 시퀀스를 획득하는 단계; 를 포함하는 전자 장치
|
12 |
12
전자 장치의 제어 방법을 실행하는 프로그램을 포함하는 비일시적 컴퓨터 판독 가능 기록매체에 있어서,상기 전자 장치는, 임베딩 모듈(embedding module), 인코더(encoder), 어텐션 모듈(attention module) 및 디코더(decoder)를 포함하는 신경망 모델을 이용하여 암호문 시퀀스를 해독하며,상기 전자 장치의 제어 방법은,상기 암호문 시퀀스를 상기 임베딩 모듈에 입력하여, 상기 암호문 시퀀스가 수치화된 임베딩 벡터(embedding vector)를 획득하는 단계;상기 임베딩 벡터를 상기 인코더에 입력하여, 상기 인코더에 포함된 복수의 제1 신경망 셀 각각에 대응되는 복수의 제1 은닉 상태 값(first hidden state value)을 획득하는 단계; 상기 어텐션 모듈을 통해, 상기 디코더에 포함된 복수의 제2 신경망 셀 각각에 대응되는 복수의 제2 은닉 상태 값(second hidden state value) 별로, 상기 복수의 제1 은닉 상태 값 각각과의 유사도에 관련된 정보를 포함하는 복수의 어텐션 값(attention value)을 획득하는 단계; 및상기 디코더를 통해, 상기 복수의 제2 은닉 상태 값 및 상기 복수의 어텐션 값을 바탕으로 상기 평문 시퀀스를 획득하는 단계; 를 포함하는 컴퓨터 판독 가능 기록매체
|