1 |
1
컴퓨팅 장치에 의해 수행되는 크로스 엔트로피에 기반하여 분류로스를 최소화하는 점진학습방법에 있어서, 현재 태스크의 로짓과 과거 태스크의 로짓을 로짓 밸런싱하여 분류로스를 최소화하도록 학습을 수행하고, 상기 분류로스는, 으로 수행되고, 상기 로짓 밸런싱은,으로 수행되고,여기서, γ는이고, 여기서, D: 데이터, C: 클래스, x: 샘플, y: 그라운드 참(truth), T: 태스크 k: 순서, θ: 학습된 분류모델, θtk: k번째 태스크의 학습된 분류모델, p: 과거, :과거 태스크, R: 과거태스크로부터의 지식 기억, N: 현재태스크에서 새로운 지식, LR: 과거태스크로부터의 점진학습객체, LP: 과거태스크의 지식을 보존하기 위한 상실을 기억하는 점진학습객체, z는 로짓이고, γ: 로짓 밸런싱 인자이고, α: 현재 태스크의 평균 로짓이고, β: 과거 태스크의 평균 로짓인, 점진학습방법
|
2 |
2
제 1 항에 있어서, 상기 로짓 밸런싱 인자는 새로운 트레이닝을 할 때마다 업데이트 하는 점진학습방법
|
3 |
3
제 1 항에 있어서, 상기 학습의 수행에서 효용성이 높은 샘플을 유지하기 위하여, 어느 태스크(t=1)에서 누적 가능도가 큰 샘플을 일정량 제거하는 단계(S1); 및 상기 어느 태스크(t=1)에서 상기 누적 가능도가 작은 샘플을 일정량 제거하고, 다음 태스크(t=2)에서 상기 누적 가능도가 중간인 샘플을 일정량 합하는 단계(S2)가 수행되는 점진학습방법
|
4 |
4
제 3 항에 있어서, 새로운 태스크가 있는 동안(S4)은 샘플선택은 계속 수행되는 점진학습방법
|
5 |
5
제 3 항에 있어서, 상기 누적 가능도는 이고, 여기서, σ=e세대의 가능도, σ(
|
6 |
6
컴퓨팅 장치에 의해 각 단계가 수행되는 점진학습방법에 있어서,어느 태스크(t=1)에서 누적 가능도가 큰 샘플을 일정량 제거하는 단계(S1); 및 상기 어느 태스크(t=1)에서 상기 누적 가능도가 작은 샘플을 일정량 제거하고, 다음 태스크(t=2)에서 상기 누적 가능도가 중간인 샘플을 일정량 합하는 단계(S2)를 반복하여, 점진학습의 수행에서 효용성이 높은 샘플을 유지하고, 상기 누적 가능도는, 이고, 여기서, σ=e세대의 가능도, σ(
|