1 |
1
병변 해석을 위한 상호작용이 가능한 CAD(Computer-Aided Diagnosis) 시스템의 동작 방법에 있어서,측정 대상에 대한 대상 이미지를 수신하는 단계;상기 대상 이미지에 대한 영상 분석을 통해 특징 정보를 추출하여 병변 여부에 대한 악성 또는 양성의 진단 정보(Diagnosis Results)를 진단하는 단계;상기 특징 정보 및 진단 결과에 따른 상기 진단 정보를 이용하여 병변 진단에 대한 근거를 설명하는 시각적 설명정보(Visual Explanation) 및 병변진단요인 설명정보(Medical Description Explanation)의 설명 정보를 도출하는 단계; 상기 대상 이미지, 상기 진단 정보 및 상기 설명 정보를 기반으로 한 의사의 질의된 선택으로 상호작용(Interaction)된 인터랙션 정보를 생성하는 단계; 및상기 CAD 시스템 내 UI/UX 출력부에 의해, 미리 결정된 UI/UX를 선택하여 상기 대상 이미지, 상기 진단 정보, 상기 설명 정보 및 상기 인터랙션 정보를 구성하여 출력하는 단계를 포함하는 병변 해석을 위한 상호작용이 가능한 CAD 방법
|
2 |
2
제1항에 있어서,상기 생성하는 단계는상기 대상 이미지, 상기 진단 정보 및 상기 설명 정보를 기반으로 한 의사의 질의된 텀(term)의 선택에 대응하여 상호작용된 상기 인터랙션 정보를 생성하는, 병변 해석을 위한 상호작용이 가능한 CAD 방법
|
3 |
3
제2항에 있어서,상기 생성하는 단계는의사의 질의된 병변의 크기(size), 모양(shape) 및 경계면(margin) 중 적어도 어느 하나 이상에 대한 텀의 선택에 대응하여 상호작용되는 상기 인터랙션 정보를 생성하는 것을 특징으로 하는, 병변 해석을 위한 상호작용이 가능한 CAD 방법
|
4 |
4
제1항에 있어서,상기 출력하는 단계는미리 결정된 UI/UX의 레이아웃을 기반으로, 상기 대상 이미지, 상기 진단 정보와 상기 진단 정보에 대응되는 이미지, 상기 설명 정보와 상기 설명 정보에 대응되는 이미지 및 상기 인터랙션 정보를 순차적으로 제공하는, 병변 해석을 위한 상호작용이 가능한 CAD 방법
|
5 |
5
제4항에 있어서,상기 출력하는 단계는미리 결정된 UI/UX의 레이아웃을 기반으로, 유방 이미지(Mammographic Image), 진단 결과(Diagnosis Results), 설명(Explanation) 및 상호작용(Interaction)의 각 섹션에 대응되도록 상기 대상 이미지, 상기 진단 정보, 상기 설명 정보 및 상기 인터랙션 정보를 구성하여 출력하는 것을 특징으로 하는, 병변 해석을 위한 상호작용이 가능한 CAD 방법
|
6 |
6
제1항에 있어서,상기 진단하는 단계는딥 뉴럴 네트워크(Deep Neural Network)를 이용하여 상기 대상 이미지에 대한 영상 분석을 통해 상기 특징 정보를 추출하며, 상기 추출된 특징 정보에 따른 악성 또는 양성(Malignant/benign)의 상기 진단 정보를 진단하는, 병변 해석을 위한 상호작용이 가능한 CAD 방법
|
7 |
7
제6항에 있어서,상기 진단하는 단계는상기 대상 이미지뿐 아니라, 상기 진단 정보에 대한 근거를 설명하는 생성 모델(generative model)로부터 도출되는 상기 설명 정보를 융합하여 병변을 분류하고, 분류 결과에 따라 병변 여부에 대한 악성 또는 양성의 상기 진단 정보를 진단하는 것을 특징으로 하는, 병변 해석을 위한 상호작용이 가능한 CAD 방법
|
8 |
8
제1항에 있어서,상기 도출하는 단계는상기 시각적 설명정보를 생성하는 단계를 포함하며,상기 시각적 설명정보를 생성하는 단계는상기 특징 정보 및 상기 진단 정보를 기반으로, 딥 러닝(Deep Learning)을 이용하여 시각적 집중영역(Saliency Region), 활성도 맵(Activation Map) 및 병변의 뚜렷한 패턴(Conspicuous Pattern)을 포함하는 상기 시각적 설명정보를 생성하는, 병변 해석을 위한 상호작용이 가능한 CAD 방법
|
9 |
9
제8항에 있어서,상기 시각적 설명정보를 생성하는 단계는적대적 학습(Adversarial Learning) 및 강화학습(Reinforcement Learning)의 딥 러닝(Deep Learning)을 이용하여 상기 특징 정보 및 상기 병변진단요인 설명정보를 디코딩(decoding)하여 상기 병변의 뚜렷한 패턴(Conspicuous Pattern)을 생성하는 것을 특징으로 하는, 병변 해석을 위한 상호작용이 가능한 CAD 방법
|
10 |
10
제1항에 있어서,상기 도출하는 단계는상기 병변진단요인 설명정보를 생성하는 단계를 포함하며,상기 병변진단요인 설명정보를 생성하는 단계는상기 특징 정보 및 상기 진단 정보를 기반으로, 멀티 태스크 딥 네트워크(Multi-task Deep Network) 학습을 통해 병변의 크기(size), 모양(shape) 및 경계면(margin)을 확률적으로 추정하여 상기 병변진단요인 설명정보를 생성하는, 병변 해석을 위한 상호작용이 가능한 CAD 방법
|
11 |
11
병변 해석을 위한 상호작용이 가능한 CAD(Computer-Aided Diagnosis) 시스템에 있어서,측정 대상에 대한 대상 이미지를 수신하는 수신부;상기 대상 이미지에 대한 영상 분석을 통해 특징 정보를 추출하여 병변 여부에 대한 악성 또는 양성의 진단 정보(Diagnosis Results)를 진단하는 병변 진단부;상기 특징 정보 및 진단 결과에 따른 상기 진단 정보를 이용하여 병변 진단에 대한 근거를 설명하는 시각적 설명정보(Visual Explanation) 및 병변진단요인 설명정보(Medical Description Explanation)의 설명 정보를 도출하는 설명 도출부;상기 대상 이미지, 상기 진단 정보 및 상기 설명 정보를 기반으로 한 의사의 질의된 선택으로 상호작용(Interaction)된 인터랙션 정보를 생성하는 생성부; 및미리 결정된 UI/UX를 선택하여 상기 대상 이미지, 상기 진단 정보, 상기 설명 정보 및 상기 인터랙션 정보를 구성하여 출력하는 UI/UX 출력부를 포함하는 병변 해석을 위한 상호작용이 가능한 CAD 시스템
|
12 |
12
제11항에 있어서,상기 생성부는상기 대상 이미지, 상기 진단 정보 및 상기 설명 정보를 기반으로 한 의사의 질의된 텀(term)의 선택에 대응하여 상호작용된 상기 인터랙션 정보를 생성하는, 병변 해석을 위한 상호작용이 가능한 CAD 시스템
|
13 |
13
제12항에 있어서,상기 생성부는의사의 질의된 병변의 크기(size), 모양(shape) 및 경계면(margin) 중 적어도 어느 하나 이상에 대한 텀의 선택에 대응하여 상호작용되는 상기 인터랙션 정보를 생성하는 것을 특징으로 하는, 병변 해석을 위한 상호작용이 가능한 CAD 시스템
|
14 |
14
제11항에 있어서,상기 UI/UX 출력부는미리 결정된 UI/UX의 레이아웃을 기반으로, 상기 대상 이미지, 상기 진단 정보와 상기 진단 정보에 대응되는 이미지, 상기 설명 정보와 상기 설명 정보에 대응되는 이미지 및 상기 인터랙션 정보를 순차적으로 제공하는, 병변 해석을 위한 상호작용이 가능한 CAD 시스템
|
15 |
15
제14항에 있어서,상기 UI/UX 출력부는미리 결정된 UI/UX의 레이아웃을 기반으로, 유방 이미지(Mammographic Image), 진단 결과(Diagnosis Results), 설명(Explanation) 및 상호작용(Interaction)의 각 섹션에 대응되도록 상기 대상 이미지, 상기 진단 정보, 상기 설명 정보 및 상기 인터랙션 정보를 구성하여 출력하는 것을 특징으로 하는, 병변 해석을 위한 상호작용이 가능한 CAD 시스템
|
16 |
16
제11항에 있어서,상기 병변 진단부는딥 뉴럴 네트워크(Deep Neural Network)를 이용하여 상기 대상 이미지에 대한 영상 분석을 통해 상기 특징 정보를 추출하며, 상기 추출된 특징 정보에 따른 악성 또는 양성(Malignant/benign)의 상기 진단 정보를 진단하는, 병변 해석을 위한 상호작용이 가능한 CAD 시스템
|
17 |
17
제16항에 있어서,상기 병변 진단부는상기 대상 이미지뿐 아니라, 상기 진단 정보에 대한 근거를 설명하는 생성 모델(generative model)로부터 도출되는 상기 설명 정보를 융합하여 병변을 분류하고, 분류 결과에 따라 병변 여부에 대한 악성 또는 양성의 상기 진단 정보를 진단하는 것을 특징으로 하는, 병변 해석을 위한 상호작용이 가능한 CAD 시스템
|
18 |
18
제11항에 있어서,상기 설명 도출부는상기 시각적 설명정보를 생성하는 시각적 설명정보 생성부를 포함하며,상기 시각적 설명정보 생성부는상기 특징 정보 및 상기 진단 정보를 기반으로, 딥 러닝(Deep Learning)을 이용하여 시각적 집중영역(Saliency Region), 활성도 맵(Activation Map) 및 병변의 뚜렷한 패턴(Conspicuous Pattern)을 포함하는 상기 시각적 설명정보를 생성하는, 병변 해석을 위한 상호작용이 가능한 CAD 시스템
|
19 |
19
제18항에 있어서,상기 시각적 설명정보 생성부는적대적 학습(Adversarial Learning) 및 강화학습(Reinforcement Learning)의 딥 러닝(Deep Learning)을 이용하여 상기 특징 정보 및 상기 병변진단요인 설명정보를 디코딩(decoding)하여 상기 병변의 뚜렷한 패턴(Conspicuous Pattern)을 생성하는 것을 특징으로 하는, 병변 해석을 위한 상호작용이 가능한 CAD 시스템
|
20 |
20
제11항에 있어서,상기 설명 도출부는상기 병변진단요인 설명정보를 생성하는 병변진단요인 설명정보 생성부를 포함하며,상기 병변진단요인 설명정보 생성부는상기 특징 정보 및 상기 진단 정보를 기반으로, 멀티 태스크 딥 네트워크(Multi-task Deep Network) 학습을 통해 병변의 크기(size), 모양(shape) 및 경계면(margin)을 확률적으로 추정하여 상기 병변진단요인 설명정보를 생성하는, 병변 해석을 위한 상호작용이 가능한 CAD 시스템
|