1 |
1
심층 신경망을 이용하는 빔포밍 방법으로,상기 심층 신경망은 입력 계층, (L은 1이상의 자연수)개의 은닉 계층들, 및 출력 계층으로 구성되며, 상기 빔포밍 방법은:기지국과 개(는 1이상의 자연수) 단말들 간의 채널 정보()와 상기 기지국의 송신 전력 제한 값()을 획득하여 상기 입력 계층으로 입력하는 단계; 및상기 출력 계층과 활성화 함수를 이용하여 출력된 빔포밍 벡터들을 이용하여 상기 K개의 단말들에게 전송될 신호들을 빔포밍하는 단계를 포함하고,상기 기지국은 개(은 1이상의 자연수)의 전송 안테나들을 이용하여 상기 K개의 단말들에게 상기 신호들을 전송하는,빔포밍 방법
|
2 |
2
청구항 1에 있어서,상기 출력 계층은 개의 노드들을 포함하고, 상기 개의 노드들은 각각 개의 노드들로 구성된 개의 노드 그룹들을 그룹핑되며, 각 노드 그룹은 각 단말에 대한 빔포밍 벡터를 출력하는 직접 빔포밍 학습(DBL, direct beamforming learning) 방식으로 구성되는,빔포밍 방법
|
3 |
3
청구항 2에 있어서,상기 활성화 함수는 상기 송신 전력 제한 값()을 만족시키기 위해 상기 각 단말에 대한 빔포밍 벡터를 제한하는 함수인,빔포밍 방법
|
4 |
4
청구항 1에 있어서,상기 출력 계층은 개의 노드들을 포함하고, 개의 노드들은 각각 개의 노드들로 구성된 2개의 노드 그룹들로 그룹핑되며, 각 노드 그룹은 최적 빔포밍 해에 포함되는 K개의 예측 변수를 출력하는 특징 학습(FL, feature learning) 방식으로 구성되는,빔포밍 방법
|
5 |
5
청구항 4에 있어서,상기 활성화 함수는 상기 2개의 노드 그룹들로부터 출력된 개의 예측 변수들을 입력으로 수신하는 상기 송신 전력 제한 값()을 만족시키기 위한 scaled softmax 함수들을 포함하며, 상기 scaled soft max 함수들 중 제1 scaled soft max 함수의 출력과 빔 방향 변환(beam direction recovery)를 거친 제2 scaled soft max 함수의 출력이 결합되어 각 단말에 대한 빔포밍 벡터가 출력되는,빔포밍 방법
|
6 |
6
청구항 1에 있어서,상기 출력 계층은 개의 노드들을 포함하고, 상기 개의 노드들은 업링크-다운링크 빔포밍 쌍대성(duality) 및 대각 성분 우월성(diagonal dominance)에 따른 근사화에 기반하여 최적 빔포밍 해에 포함되는 개의 예측 변수들을 출력하는 단순 특징 학습(SFL, simplified feature learning) 방식으로 구성되는,빔포밍 방법
|
7 |
7
청구항 6에 있어서,상기 활성화 함수는 상기 개의 노드들로부터 출력된 개의 예측 변수들을 입력으로 수신하는 상기 송신 전력 제한 값()을 만족시키기 위한 scaled softmax 함수들을 포함하며, 상기 scaled soft max 함수들 중 제1 scaled soft max 함수의 출력과 빔 방향 변환(beam direction recovery)를 거친 제2 scaled soft max 함수의 출력이 결합되어 각 단말에 대한 빔포밍 벡터가 출력되는,빔포밍 방법
|
8 |
8
청구항 1에 있어서,상기 심층 신경망에 대한 비지도(unsupervised) 학습을 수행하는 단계를 추가로 포함하고, 상기 심층 신경망에 대한 비지도 학습을 수행하는 단계는:상기 채널 정보()와 상기 송신 전력 제한 값()을 상기 입력 계층으로 입력하는 단계; 및상기 심층 신경망의 입력-출력 매핑에 따른 합계 데이터 전송율 계산 값에 -1을 곱하여 정의되는 손실 함수(loss function)를 최소화하도록 상기 심층 신경망의 파라미터들을 학습시키는 단계를 포함하는,빔포밍 방법
|
9 |
9
청구항 1에 있어서,상기 심층 신경망에 대한 지도(supervised) 학습을 수행하는 단계를 추가로 포함하고, 상기 심층 신경망에 대한 지도 학습을 수행하는 단계는:상기 채널 정보()와 상기 송신 전력 제한 값()을 상기 입력 계층으로 입력하는 단계; 및상기 채널 정보()와 상기 송신 전력 제한 값()에 대응하는 최적의 빔포밍 벡터들에 따른 합계 데이터 전송율 계산 값과 상기 심층 신경망의 입력-출력 매핑에 따른 합계 데이터 전송율 계산 값의 차이로 정의되는 손실 함수를 최소화하도록 상기 심층 신경망의 파라미터들을 학습시키는 단계를 포함하는,빔포밍 방법
|
10 |
10
심층 신경망을 이용하는 빔포밍 제어 장치로서,상기 심층 신경망은 입력 계층, (L은 1이상의 자연수)개의 은닉 계층들, 및 출력 계층으로 구성되며, 상기 빔포밍 제어 장치는 프로세서; 및 상기 프로세서에 의해서 실행되는 명령어들을 저장하는 메모리를 포함하고, 상기 프로세서에 의해서 실행될 때 상기 명령어들은 상기 프로세서가: 기지국과 개(는 1이상의 자연수) 단말들 간의 채널 정보()와 상기 기지국의 송신 전력 제한 값()을 획득하여 상기 입력 계층으로 입력하는 단계; 및상기 출력 계층과 활성화 함수를 이용하여 출력된 빔포밍 벡터들을 이용하여 상기 개의 단말들에게 전송될 신호들을 빔포밍하는 단계를 수행하도록 하고,상기 기지국은 개(은 1이상의 자연수)의 전송 안테나들을 이용하여 상기 K개의 단말들에게 상기 신호들을 전송하는,빔포밍 제어 장치
|
11 |
11
청구항 10에 있어서,상기 출력 계층은 개의 노드들을 포함하고, 상기 개의 노드들은 각각 개의 노드들로 구성된 개의 노드 그룹들을 그룹핑되며, 각 노드 그룹은 각 단말에 대한 빔포밍 벡터를 출력하는 직접 빔포밍 학습(DBL, direct beamforming learning) 방식으로 구성되는,빔포밍 제어 장치
|
12 |
12
청구항 10에 있어서,상기 출력 계층은 개의 노드들을 포함하고, 개의 노드들은 각각 개의 노드들로 구성된 2개의 노드 그룹들로 그룹핑되며, 각 노드 그룹은 최적 빔포밍 해에 포함되는 개의 예측 변수를 출력하는 특징 학습(FL, feature learning) 방식으로 구성되는,빔포밍 제어 장치
|
13 |
13
청구항 10에 있어서,상기 출력 계층은 개의 노드들을 포함하고, 상기 개의 노드들은 업링크-다운링크 빔포밍 쌍대성(duality) 및 대각 성분 우월성(diagonal dominance)에 따른 근사화에 기반하여 최적 빔포밍 해에 포함되는 개의 예측 변수들을 출력하는 단순 특징 학습(SFL, simplified feature learning) 방식으로 구성되는,빔포밍 방법
|
14 |
14
청구항 10에 있어서,상기 명령어들은 상기 프로세서가 상기 심층 신경망에 대한 비지도(unsupervised) 학습을 수행하는 단계를 추가로 수행하도록 하고, 상기 심층 신경망에 대한 비지도 학습을 수행하는 단계는:상기 채널 정보()와 상기 송신 전력 제한 값()을 상기 입력 계층으로 입력하는 단계; 및상기 심층 신경망의 입력-출력 매핑에 따른 합계 데이터 전송율 계산 값에 -1을 곱하여 정의되는 손실 함수(loss function)를 최소화하도록 상기 심층 신경망의 파라미터들을 학습시키는 단계를 포함하는,빔포밍 제어 장치
|
15 |
15
청구항 10에 있어서,상기 명령어들은 상기 프로세서가 상기 심층 신경망에 대한 지도(supervised) 학습을 수행하는 단계를 추가로 수행하도록 하고, 상기 심층 신경망에 대한 지도 학습을 수행하는 단계는:상기 채널 정보()와 상기 송신 전력 제한 값()을 상기 입력 계층으로 입력하는 단계; 및상기 채널 정보()와 상기 송신 전력 제한 값()에 대응하는 최적의 빔포밍 벡터들에 따른 합계 데이터 전송율 계산 값과 상기 심층 신경망의 입력-출력 매핑에 따른 합계 데이터 전송율 계산 값의 차이로 정의되는 손실 함수를 최소화하도록 상기 심층 신경망의 파라미터들을 학습시키는 단계를 포함하는,빔포밍 제어 장치
|
16 |
16
중앙 제어 장치(CP, centralized processor)와 복수의 RRH(remote radio head)들을 포함하는 클라우드 무선 액세스 네트워크(C-RAN, cloud radio access network) 시스템으로, 상기 CP는 입력 계층, (L은 1이상의 자연수)개의 은닉 계층들, 및 출력 계층으로 구성된 심층 신경망을 포함하고,상기 CP는 상기 복수의 RRH들과 개(는 1이상의 자연수) 단말들 간의 채널 정보()와 상기 복수의 RRH들의 송신 전력 제한 값()들을 획득하여 상기 입력 계층으로 입력하고, 상기 출력 계층과 활성화 함수를 이용하여 출력된 빔포밍 벡터들을 이용하여 상기 K개의 단말들에게 전송될 신호들에 대한 빔포밍 벡터들을 생성하여, 상기 생성된 빔포밍 벡터들을 상기 복수의 RRH들에게 전달하며,상기 복수의 RRH들은 상기 생성된 빔포밍 벡터들을 이용하여 빔포밍된 신호들을 상기 K개의 단말들에게 전송하는,C-RAN 시스템
|
17 |
17
청구항 16에 있어서,상기 복수의 RRH들이 개(은 1이상의 자연수)의 전송 안테나들을 포함한 경우, 상기 출력 계층은 개의 노드들을 포함하고, 상기 개의 노드들은 각각 개의 노드들로 구성된 개의 노드 그룹들을 그룹핑되며, 각 노드 그룹은 각 단말에 대한 빔포밍 벡터를 출력하는 직접 빔포밍 학습(DBL, direct beamforming learning) 방식으로 구성되는,C-RAN 시스템
|
18 |
18
청구항 16에 있어서,상기 출력 계층은 개의 노드들을 포함하고, 개의 노드들은 각각 개의 노드들로 구성된 2개의 노드 그룹들로 그룹핑되며, 각 노드 그룹은 최적 빔포밍 해에 포함되는 개의 예측 변수를 출력하는 특징 학습(FL, feature learning) 방식으로 구성되는,C-RAN 시스템
|
19 |
19
청구항 16에 있어서,상기 출력 계층은 개의 노드들을 포함하고, 상기 개의 노드들은 업링크-다운링크 빔포밍 쌍대성(duality) 및 대각 성분 우월성(diagonal dominance)에 따른 근사화에 기반하여 최적 빔포밍 해에 포함되는 개의 예측 변수들을 출력하는 단순 특징 학습(SFL, simplified feature learning) 방식으로 구성되는,C-RAN 시스템
|
20 |
20
청구항 16에 있어서,상기 심층 신경망은 상기 심층 신경망의 입력-출력 매핑에 따른 합계 데이터 전송율 계산 값에 -1을 곱하여 정의되는 손실 함수(loss function)를 최소화하도록 상기 심층 신경망의 파라미터들을 학습시키는 비지도(unsupervised) 학습 방식 또는 상기 채널 정보()와 상기 송신 전력 제한 값()들에 대응하는 최적의 빔포밍 벡터들에 따른 합계 데이터 전송율 계산 값과 상기 심층 신경망의 입력-출력 매핑에 따른 합계 데이터 전송율 계산 값의 차이로 정의되는 손실 함수를 최소화하도록 상기 심층 신경망의 파라미터들을 학습시키는 지도(supervised) 학습 방식으로 학습되는,C-RAN 시스템
|