1 |
1
분석 대상인 딥러닝(deep learning) 기반의 보행 인식 시스템(gait recognition system)을 획득하는 단계; 및에이전트(agent)가 상호 작용하는 보행 에너지 이미지(gait energy image, GEI)가 환경(environment)이고, 보행 에너지 이미지(GEI)에서의 픽셀 위치(pixel location)가 상태(state)이며, 상기 에이전트가 현재 상태에서 가능한 모든 이동이 액션(action)이고, 상기 보행 인식 시스템으로부터 제공받은 예측 결과를 토대로 결정된 액션 품질 값이 보상(reward)인 강화 학습(reinforcement learning, RL)을 이용하여 블랙 박스 공격(black box attack)인 적대적 공격(adversarial attack)을 상기 보행 인식 시스템에 대해 수행하는 단계;를 포함하며,상기 액션은, 상기 에이전트가 현재 상태에 따른 픽셀 위치를 기준으로 위쪽에 있는 픽셀로 이동, 상기 에이전트가 현재 상태에 따른 픽셀 위치를 기준으로 아래쪽에 있는 픽셀로 이동, 상기 에이전트가 현재 상태에 따른 픽셀 위치를 기준으로 왼쪽에 있는 픽셀로 이동, 및 상기 에이전트가 현재 상태에 따른 픽셀 위치를 기준으로 오른쪽에 있는 픽셀로 이동을 포함하고,상기 적대적 공격 수행 단계는, Q-러닝(Q-learning)을 기반으로 상기 보행 인식 시스템에 대해 상기 적대적 공격을 수행하는 것으로 이루어지며,상기 Q-러닝은, 상기 보행 에너지 이미지(GEI)와 Q-러닝 알고리즘 파라미터가 입력이고, 상기 에이전트가 도달한 목표 상태가 출력이며, 에피소드 수와 에피소드당 반복 수를 포함하는 하이퍼파라미터를 상태 및 액션 크기로 초기화한 후, 각 상기 보행 에너지 이미지(GEI)에 대해, 상기 에피소드당 반복 수와 상기 에피소드 수를 기반으로, 상기 에이전트가 현재 상태에 따른 상기 보행 에너지 이미지(GEI)에서의 픽셀 위치를 기반으로 상기 액션을 수행하는 과정, 상기 에이전트가 수행한 상기 액션을 기반으로 미리 설정된 크기의 적대적 패치(adversarial patch)를 생성하고 상기 적대적 패치가 추가된 적대적 보행 에너지 이미지(GEI)를 상기 보행 인식 시스템에 제공하여 상태 전환을 수행하는 과정, 상기 보행 인식 시스템으로부터 제공받은 상기 적대적 보행 에너지 이미지(GEI)에 대한 예측 결과를 토대로 상기 액션에 대한 상기 보상을 결정하는 과정, 및 각 상태-액션 쌍(state-action pair)에 대한 Q-값을 보유하는 Q-테이블(Q-table)을 업데이트하는 과정을, 반복적으로 수행하는 알고리즘인,보행 인식 시스템에 대한 강화 학습을 이용한 적대적 공격 방법
|
2 |
2
제1항에서,상기 보행 인식 시스템은,상기 보행 에너지 이미지(GEI) 기반의 보행 표현(gait representation)을 이용하여 보행 스타일로 개인을 인식하는 심층 합성곱 신경망(deep convolutional neural network, DCNN) 기반의 지능형 모델(intelligent model)인,보행 인식 시스템에 대한 강화 학습을 이용한 적대적 공격 방법
|
3 |
3
삭제
|
4 |
4
삭제
|
5 |
5
제2항에서,상기 액션은,상기 에이전트가 현재 상태에 따른 픽셀 위치를 기준으로 미리 설정된 크기의 스텝(step)을 단위로 다른 픽셀로 이동하는 것인,보행 인식 시스템에 대한 강화 학습을 이용한 적대적 공격 방법
|
6 |
6
삭제
|
7 |
7
삭제
|
8 |
8
제5항에서,상기 적대적 공격 수행 단계는,상기 에이전트가 수행한 상기 액션에 따른 상기 에이전트의 상기 상태인 픽셀 위치를 중심으로 하여 픽셀 값이 랜덤하게 생성된 n×n 크기를 가지는 상기 적대적 패치를 생성하고, 상기 적대적 패치의 픽셀 위치를 토대로 보행 에너지 이미지(GEI)에 상기 적대적 패치를 추가하여 픽셀이 교란(perturbation)된 상기 적대적 보행 에너지 이미지(GEI)를 획득하는 것으로 이루어지는,보행 인식 시스템에 대한 강화 학습을 이용한 적대적 공격 방법
|
9 |
9
제8항에서,상기 적대적 공격 수행 단계는,상기 지능형 모델로부터 제공받은 상기 적대적 보행 에너지 이미지(GEI)에 대한 예측 결과가 상기 지능형 모델의 신뢰도(confidence)를 낮추는 결과에 해당하면 양의 상기 액션 품질 값을 상기 액션에 대한 상기 보상으로 결정하고, 상기 지능형 모델로부터 제공받은 상기 적대적 보행 에너지 이미지(GEI)에 대한 예측 결과가 상기 지능형 모델의 신뢰도를 낮추는 결과에 해당하지 않으면 음의 상기 액션 품질 값을 상기 액션에 대한 상기 보상으로 결정하는 것으로 이루어지는,보행 인식 시스템에 대한 강화 학습을 이용한 적대적 공격 방법
|
10 |
10
제1항, 제2항, 제5항, 제8항 및 제9항 중 어느 한 항에 기재된 보행 인식 시스템에 대한 강화 학습을 이용한 적대적 공격 방법을 컴퓨터에서 실행시키기 위하여 컴퓨터 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램
|
11 |
11
딥러닝(deep learning) 기반의 보행 인식 시스템(gait recognition system)에 대해, 강화 학습(reinforcement learning, RL)을 이용하여 적대적 공격(adversarial attack)을 수행하기 위한 하나 이상의 프로그램을 저장하는 메모리; 및상기 메모리에 저장된 상기 하나 이상의 프로그램에 따라 상기 강화 학습을 이용하여 상기 적대적 공격을 상기 보행 인식 시스템에 대해 수행하기 위한 동작을 수행하는 하나 이상의 프로세서;를 포함하며,상기 프로세서는,분석 대상인 상기 보행 인식 시스템을 획득하고,에이전트(agent)가 상호 작용하는 보행 에너지 이미지(gait energy image, GEI)가 환경(environment)이고, 보행 에너지 이미지(GEI)에서의 픽셀 위치(pixel location)가 상태(state)이며, 상기 에이전트가 현재 상태에서 가능한 모든 이동이 액션(action)이고, 상기 보행 인식 시스템으로부터 제공받은 예측 결과를 토대로 결정된 액션 품질 값이 보상(reward)인 상기 강화 학습(RL)을 이용하여 블랙 박스 공격(black box attack)인 상기 적대적 공격을 상기 보행 인식 시스템에 대해 수행하며,상기 액션은, 상기 에이전트가 현재 상태에 따른 픽셀 위치를 기준으로 위쪽에 있는 픽셀로 이동, 상기 에이전트가 현재 상태에 따른 픽셀 위치를 기준으로 아래쪽에 있는 픽셀로 이동, 상기 에이전트가 현재 상태에 따른 픽셀 위치를 기준으로 왼쪽에 있는 픽셀로 이동, 및 상기 에이전트가 현재 상태에 따른 픽셀 위치를 기준으로 오른쪽에 있는 픽셀로 이동을 포함하고,상기 프로세서는, Q-러닝(Q-learning)을 기반으로 상기 보행 인식 시스템에 대해 상기 적대적 공격을 수행하며,상기 Q-러닝은, 상기 보행 에너지 이미지(GEI)와 Q-러닝 알고리즘 파라미터가 입력이고, 상기 에이전트가 도달한 목표 상태가 출력이며, 에피소드 수와 에피소드당 반복 수를 포함하는 하이퍼파라미터를 상태 및 액션 크기로 초기화한 후, 각 상기 보행 에너지 이미지(GEI)에 대해, 상기 에피소드당 반복 수와 상기 에피소드 수를 기반으로, 상기 에이전트가 현재 상태에 따른 상기 보행 에너지 이미지(GEI)에서의 픽셀 위치를 기반으로 상기 액션을 수행하는 과정, 상기 에이전트가 수행한 상기 액션을 기반으로 미리 설정된 크기의 적대적 패치(adversarial patch)를 생성하고 상기 적대적 패치가 추가된 적대적 보행 에너지 이미지(GEI)를 상기 보행 인식 시스템에 제공하여 상태 전환을 수행하는 과정, 상기 보행 인식 시스템으로부터 제공받은 상기 적대적 보행 에너지 이미지(GEI)에 대한 예측 결과를 토대로 상기 액션에 대한 상기 보상을 결정하는 과정, 및 각 상태-액션 쌍(state-action pair)에 대한 Q-값을 보유하는 Q-테이블(Q-table)을 업데이트하는 과정을, 반복적으로 수행하는 알고리즘인,보행 인식 시스템에 대한 강화 학습을 이용한 적대적 공격 장치
|
12 |
12
제11항에서,상기 보행 인식 시스템은,상기 보행 에너지 이미지(GEI) 기반의 보행 표현(gait representation)을 이용하여 보행 스타일로 개인을 인식하는 심층 합성곱 신경망(deep convolutional neural network, DCNN) 기반의 지능형 모델(intelligent model)인,보행 인식 시스템에 대한 강화 학습을 이용한 적대적 공격 장치
|
13 |
13
삭제
|
14 |
14
삭제
|
15 |
15
삭제
|
16 |
16
제12항에서,상기 프로세서는,상기 에이전트가 수행한 상기 액션에 따른 상기 에이전트의 상기 상태인 픽셀 위치를 중심으로 하여 픽셀 값이 랜덤하게 생성된 n×n 크기를 가지는 상기 적대적 패치를 생성하고, 상기 적대적 패치의 픽셀 위치를 토대로 보행 에너지 이미지(GEI)에 상기 적대적 패치를 추가하여 픽셀이 교란(perturbation)된 상기 적대적 보행 에너지 이미지(GEI)를 획득하는,보행 인식 시스템에 대한 강화 학습을 이용한 적대적 공격 장치
|
17 |
17
제16항에서,상기 프로세서는,상기 지능형 모델로부터 제공받은 상기 적대적 보행 에너지 이미지(GEI)에 대한 예측 결과가 상기 지능형 모델의 신뢰도(confidence)를 낮추는 결과에 해당하면 양의 상기 액션 품질 값을 상기 액션에 대한 상기 보상으로 결정하고, 상기 지능형 모델로부터 제공받은 상기 적대적 보행 에너지 이미지(GEI)에 대한 예측 결과가 상기 지능형 모델의 신뢰도를 낮추는 결과에 해당하지 않으면 음의 상기 액션 품질 값을 상기 액션에 대한 상기 보상으로 결정하는,보행 인식 시스템에 대한 강화 학습을 이용한 적대적 공격 장치
|