1 |
1
채널 유닛의 채널 단위를 기초로, 딥러닝 모델의 이전 레이어에서 출력되는 데이터 스트림을 프루닝하는 단계;프루닝된 데이터 스트림을 다수의 채널 유닛들로 바인딩하는 단계;바인딩된 데이터 스트림을 딥러닝 모델의 다음 레이어로 전달하는 단계;를 포함하고,프루닝 단계는,바인딩된 데이터 스트림의 마지막 채널 유닛의 데이터 개수가 채널 단위와 동일해지도록 필터 프루닝하는 것을 특징으로 하는 딥러닝 연산 방법
|
2 |
2
삭제
|
3 |
3
채널 유닛의 채널 단위를 기초로, 딥러닝 모델의 이전 레이어에서 출력되는 데이터 스트림을 프루닝하는 단계;프루닝된 데이터 스트림을 다수의 채널 유닛들로 바인딩하는 단계;바인딩된 데이터 스트림을 딥러닝 모델의 다음 레이어로 전달하는 단계;를 포함하고,프루닝 단계는,정해진 비율 만큼 필터 프루닝할 경우 출력 데이터의 개수가 채널 단위의 배수가 아니면, 프루닝 비율을 조절하는 것을 특징으로 하는 딥러닝 연산 방법
|
4 |
4
청구항 3에 있어서,정해진 비율 만큼 필터 프루닝할 경우 출력 데이터의 개수가 채널 단위의 절반 보다 적으면, 프루닝 비율을 높이는 것을 특징으로 하는 딥러닝 연산 방법
|
5 |
5
청구항 3에 있어서,정해진 비율 만큼 필터 프루닝할 경우 출력 데이터의 개수가 채널 단위의 절반 보다 많으면, 프루닝 비율을 낮추는 것을 특징으로 하는 딥러닝 연산 방법
|
6 |
6
청구항 1에 있어서,채널 유닛의 채널 단위는,프로세서의 사양에 의해 결정되는 것을 특징으로 하는 딥러닝 연산 방법
|
7 |
7
청구항 6에 있어서,프로세서는,NPU(Neural Process Unit)인 것을 특징으로 하는 딥러닝 연산 방법
|
8 |
8
청구항 7에 있어서,NPU는,경량 딥러닝 연산 하드웨어에 탑재된 것을 특징으로 하는 딥러닝 연산 방법
|
9 |
9
청구항 1에 있어서,경량 딥러닝 연산 하드웨어는,엣지 디바이스에 구현된 것을 특징으로 하는 딥러닝 연산 방법
|
10 |
10
채널 유닛의 채널 단위를 기초로 딥러닝 모델의 이전 레이어에서 출력되는 데이터 스트림을 프루닝하고, 프루닝된 데이터 스트림을 다수의 채널 유닛들로 바인딩하여, 딥러닝 모델의 다음 레이어로 전달하는 딥러닝 연산기; 및딥러닝 연산기에 필요한 저장공간을 제공하는 메모리;를 포함하고,딥러닝 연산기는,바인딩된 데이터 스트림의 마지막 채널 유닛의 데이터 개수가 채널 단위와 동일해지도록 필터 프루닝하는 것을 특징으로 하는 딥러닝 연산 장치
|
11 |
11
채널 유닛의 채널 단위를 기초로, 딥러닝 모델의 레이어에서 출력되는 데이터 스트림을 프루닝하는 단계;프루닝된 데이터 스트림을 다수의 채널 유닛들로 바인딩하는 단계;를 포함하고,프루닝 단계는,바인딩된 데이터 스트림의 마지막 채널 유닛의 데이터 개수가 채널 단위와 동일해지도록 필터 프루닝하는 것을 특징으로 하는 데이터 프루닝 방법
|
12 |
12
채널 유닛의 채널 단위를 기초로 딥러닝 모델의 레이어에서 출력되는 데이터 스트림을 프루닝하고, 프루닝된 데이터 스트림을 다수의 채널 유닛들로 바인딩하는 딥러닝 연산기; 및딥러닝 연산기에 필요한 저장공간을 제공하는 메모리;를 포함하고,딥러닝 연산기는,바인딩된 데이터 스트림의 마지막 채널 유닛의 데이터 개수가 채널 단위와 동일해지도록 필터 프루닝하는 것을 특징으로 하는 딥러닝 연산 장치
|