Journal Search Engine
Search Advanced Search Adode Reader(link)
Download PDF Export Citaion korean bibliography PMC previewer
ISSN : 2288-3509(Print)
ISSN : 2384-1168(Online)
Journal of Radiological Science and Technology Vol.45 No.2 pp.151-158
DOI : https://doi.org/10.17946/JRST.2022.45.2.151

Evaluating Usefulness of Deep Learning Based Left Ventricle Segmentation in Cardiac Gated Blood Pool Scan

Joo-Young Oh1,2), Eui-Hwan Jeong3), Joo-Young Lee4), Hoon-Hee Park5)
1)Department of Radiology and Research Institute of Radiology, Asan Medical Center
2)Department of Radiological Technology, Chungbuk Health & Science University
3)DYNAPEX LLC
4)Department of Radiological Technology, Songho College
5)Department of Radiological Technology, Shingu College
Corresponding author: Hoon-Hee Park, Department of Radiological Technology, Shingu College, 377 Gwangmyeong-ro, Seongnam, Gyeonggi-do,
13174, Republic of Korea / Tel: +82-31-740-1638 / E-mail: hzpark@shingu.ac.kr
10/03/2022 28/03/2022 04/04/2022

Abstract


The Cardiac Gated Blood Pool (GBP) scintigram, a nuclear medicine imaging, calculates the left ventricular Ejection Fraction (EF) by segmenting the left ventricle from the heart. However, in order to accurately segment the substructure of the heart, specialized knowledge of cardiac anatomy is required, and depending on the expert's processing, there may be a problem in which the left ventricular EF is calculated differently. In this study, using the DeepLabV3 architecture, GBP images were trained on 93 training data with a ResNet-50 backbone. Afterwards, the trained model was applied to 23 separate test sets of GBP to evaluate the reproducibility of the region of interest and left ventricular EF. Pixel accuracy, dice coefficient, and IoU for the region of interest were 99.32±0.20, 94.65±1.45, 89.89±2.62(%) at the diastolic phase, and 99.26±0.34, 90.16±4.19, and 82.33±6.69(%) at the systolic phase, respectively. Left ventricular EF was calculated to be an average of 60.37±7.32% in the ROI set by humans and 58.68±7.22% in the ROI set by the deep learning segmentation model. (p<0.05) The automated segmentation method using deep learning presented in this study similarly predicts the average human-set ROI and left ventricular EF when a random GBP image is an input. If the automatic segmentation method is developed and applied to the functional examination method that needs to set ROI in the field of cardiac scintigram in nuclear medicine in the future, it is expected to greatly contribute to improving the efficiency and accuracy of processing and analysis by nuclear medicine specialists.



게이트심장혈액풀검사에서 딥러닝 기반 좌심실 영역 분할방법의 유용성 평가

오 주영1,2), 정 의환3), 이 주영4), 박 훈희5)
1)서울아산병원 영상의학과
2)충북보건과학대학교 방사선과
3)다이나펙스(유)
4)송호대학교 방사선과
5)신구대학교 방사선과

초록


    Ⅰ. 서 론

    국내의 유방암 발병률이 빠르게 증가되고 있다[1]. 유방 암 치료에 사용되는 다양한 화학요법 중에 일부는 심장에 손상을 주는 부작용이 보고되어 있어 심장의 기능을 주기적 으로 평가하여야 한다[2]. 심장 기능의 저하를 정량적으로 확인할 수 있는 검사법으로 게이트심장혈액풀검사(Gated blood pool scan, GBP)가 시행되고 있다.

    GBP 검사는 심전도를 지표로 사용하여 좌심실 심박출계 수(Ejection Fraction, EF)를 측정하고 전체 심장의 기능을 평가한다[3]. 좌심실 심박출계수는 심장판막 질환의 수술 전, 후 예후평가와 치료방침의 결정에 유용하므로 심장 기 능의 평가 기준으로 사용한다[4].

    GBP 검사 시 심장의 기능을 정량화하기 위해서는 관심영 역(Region of interest, ROI)을 설정하여 심장 구조를 분할 해야 한다. 일반적으로는 사람의 손으로 직접 관심영역을 설정하고 분석된 영상을 평가 후 정량적인 결과를 산출하는 수동적인 관심영역 설정 방법이 활용되고 있다[5]. 그러나 심장의 하부구조들은 물리적인 조직으로 분리되어 있지 않 기 때문에 정확한 분할을 위해서는 전문가의 심장 해부학 지식이 필요하며, 이때 분할 영역은 전문가에 따라 결과가 달라지는 문제가 존재한다[6]. 특히 GBP 검사는 다른 검사 에 비해 비교적 낮은 해상도를 지니며, 심장의 구조가 명확 히 분리되지 않는 경우가 많으며, 감마카메라 신티그램은 타 영상 검사에 비해서 해상도가 떨어져 관심영역 설정 및 영상분석은 보다 전문성이 요구된다.

    최근 의료영상 분야에서 인공지능(Artificial Intelligence, AI) 중 의미론적 영상 분할(Semantic segmentation) 알고 리즘을 활용한 영상 분할 기법이 활발하게 연구되고 있다[7,8]. 이미 CT를 이용한 심장의 영상 분할 연구 사례가 여러 차례 보고되고 있고, 핵의학 영상은 고해상도의 SPECT 영 상의 심장의 영상 분할 연구가 진행된 바 있다[9-12]. 하지 만 다른 검사에 비하여 영역 분할의 난이도가 높은 GBP 검 사의 영상 분할 연구는 상대적으로 미비한 상황이다.

    의미론적 영상 분할 알고리즘은 대부분 인코더-디코더의 순차적인 구조를 지니고 있다. 상대적으로 적은 수의 자료 만으로도 저차원과 고차원 정보를 모두 사용하여 영상의 특 징을 추출해내고, 빠른 속도로 영상을 복원하는 방식으로 이루어진다. 주요 알고리즘으로는 U-Net[13], FCN(Fully Convolutional Networks)[14], DeepLabV3[15,16] 등이 잘 알려져있다. 본 연구에서는 안정적인 성능이 검증된 DeepLabV3 아키텍쳐(architecture)를 통해 GBP 검사의 좌심실 영역을 학습하였다. GBP 검사 영상을 사람이 수동 으로 설정한 결과와 학습된 딥러닝 분할모델을 기반으로 인 공지능이 자동으로 설정한 결과의 관심영역 차이와 심박출 계수 차이 등을 비교하였다. 이를 통해 GBP 검사 영상 관심 영역 설정에 있어 인공지능 자동 설정의 유용성을 평가하 고, 더 나아가 핵의학 분야의 임상 방사선사 업무 효율성을 극대화하고 안정적인 검사결과 도출을 위한 기초 연구 자료 로 활용하고자 한다.

    Ⅱ. 대상 및 방법

    1. 학습 데이터

    1) 영상 추출

    학습용 데이터로 116세트의 GBP 영상을 사용하였다. 영 상은 전체 심주기(cardiac cycle)를 등간격(equal interval) 으로 촬영한 24 프레임(frame)의 영상 세트로 이루어졌으 며, 동기화된 심전도계(electro-cardiogram, ECG)의 정보 를 이용하여 확장기말(end-diastolic phase)과 수축기말 (end-systolic phase) 프레임 번호를 확인하였다. 학습 영 상 데이터 세트가 불충분한 이유로 인해 데이터를 증량하기 위하여 각 영상에서 확장기 영상 2개와 수축기 영상 2개를 추출하였다. 확장기 영상은 확장기말 프레임 영상과 확장기 말에서 2프레임 이후의 영상을 추출하였고, 수축기 영상 또 한 수축기말 프레임과 수축기말에서 2프레임 이후의 영상을 추출하였다. 추출된 4개의 영상은 각각 확장기 영상과 수축 기 영상표본으로 간주하여 분류하였다[Fig. 1]. 모든 영상은 관심영역 설정과 인공지능 학습을 위하여 256 × 256 픽셀 로 리샘플링(re-sampling)하였다.

    2) 관심영역 설정

    LabelMe[17] 소프트웨어를 이용하여 GBP 영상에 좌심실 의 수축기와 확장기의 관심영역을 각각 설정하였다. 수축기 관심영역은 총 3,248(116세트 × 2장 × 14명)개, 확장기 관 심영역은 총 3,248(116세트 × 2장 × 14명)개를 2차원 좌 표값이 저장된 JSON 포맷으로 확보하였고, 이를 최종적으 로 이진화된 마스크로 변환하였다.

    사람이 설정한 관심영역을 토대로 딥러닝 모델 학습을 위 하여 다음 Eq. (1)을 통해 각 케이스별로 각 1개씩의 수축기 와 확장기의 좌심실 평균 관심영역을 산출하였다[Fig. 2].

    R O I m e a n = n = 0 14 R O I n n R O I b i n = { 0 if R O I m e a n ( x , y ) 0.5 1 if R O I m e a n ( x , y ) 0.5
    Eq. (1)

    • n : 사람의 수

    평균 관심영역은 계단함수(step function)에 따라 산출 한 값이 0.5 이하일 때 0의 값, 0.5 이상일 때 1의 값을 이진 수 행렬로 변환된다. 이때 0은 배경(background) 클래스 (class), 1은 좌심실의 클래스로 설정하였다.

    2. 딥러닝 모델 학습

    딥러닝 모델 학습 시 프로그래밍 언어는 파이썬(Python 3.9.6)을 사용하였으며, 프레임워크는 파이토치(PyTorch v1.7.1)를 사용하였다. 연구 환경은 intel i9-10940X 3.30GHz CPU와 RTX 3090 GPU를 사용하여 분석하였다. ResNet-50 백본(backbone)의 DeepLabV3 아키텍쳐을 이용하여 각 확 장기, 수축기 영상과 그 쌍인 평균 관심영역 영상을 사전학 습 가중치를 사용하지 않고 학습하였다.

    학습 시 학습용 데이터 세트(Training set, 60%, 확장기 와 수축기 각 140장)와 검증용 데이터 세트(Validation set, 20%, 확장기와 수축기 각 46장)로 나누어 학습을 진행하였 고, 완성된 모델의 평가를 위해 평가 데이터 세트(Test set, 20%, 확장기와 수축기 각 46장)를 분리하여 사용하였다 [Fig. 3]. 학습 데이터 세트의 경우, 데이터 증량을 위하여 명 도(brightness)와 대비(contrast)를 10% 범위 안에서 무작위 변경하였고, 심장 모양의 변형을 위하여 탄성변형(elastic deformation), 이동(translate), 회전(rotate), 크기변형 (scale), 절사(crop)를 사용하여 심장의 해부학적 구조를 해 치지 않는 범위 내에서 무작위로 변형을 적용하여 학습하였 다. 모든 학습이 완료된 후, 평가 데이터 세트의 관심영역을 예측 생성하였고, 정량적인 평가지표를 산출하였다.

    3. 데이터 평가

    분리된 평가 데이터 세트를 위의 학습된 모델을 통해 예 측 및 생성하였고, 사람이 설정한 관심영역과 비교하여 관 심영역 재현성을 평가하였다. 평가를 위해 사용된 지표는 픽셀 정확도, 주사위 계수, IoU(Intersection over Union), 심박출계수 4가지 항목으로 아래와 같다.

    1) 픽셀 정확도(Pixel Accuracy)

    픽셀 정확도는 분할 네트워크의 성능을 정량적으로 평가 하는 방법으로 전체 이미지의 픽셀 개수를 정확하게 분류한 개수이다. 픽셀 정확도는 아래의 Eq. (2)와 같이 유도된다.

    P A = i = 0 k p i i i = 0 k j = 0 k p i j
    Eq. (2)

    위 식(2)에서 k는 클래스의 개수이고 배경(0)과 좌심실(1) 로 k 값은 1이다. P를 Pxy로 가정할 때 x는 실제 정답, y는 분할모델이 예측한 값이다. 분자의 경우 P00 과 P11 의 합계 로 정답이 일치하는 픽셀의 개수이고, 분모의 경우 P00 + P 01 + P10 + P11로 전체 영상의 픽셀 합계이다. 즉, PA는 일치하는 픽셀의 개수를 전체 영상 픽셀의 합계로 나눈 값 으로 전체 픽셀 개수 중 분할모델이 맞춘 비율이다.

    2) 주사위 계수(Dice Coefficient)

    주사위 계수는 영상 분할에 쓰이는 가장 대표적인 평가지 표이다. 다음 Eq. (3)과 같으며, 실측자료의 겹치는 영역에 2를 곱한 후, 두 이미지의 총 픽셀 수로 나누어 계산하였 다[18].

    D i c e ( % ) = 2 × | P G | | P | + | G | × 100
    Eq. (3)

    • P : 분할모델이 예측한 분할 영역

    • G : 사람이 설정한 분할 영역

    3) IoU (Intersection over Union)

    IoU(Intersection over Union)는 의미론적 영상 분할 기 술에서 보편적으로 사용되는 평가지표로 각각의 클래스 정 확도를 측정하며, 다음 Eq. (4)를 통해 산출하였다.

    I o U = | P G | | P G | = | P G | | P | + | G | | P G |
    Eq. (4)

    • P : 분할모델이 예측한 분할 영역

    • G : 사람이 설정한 분할 영역

    위 Eq. (4)를 통해 사람의 분할 영역과 분할모델이 예측 한 분할 영역의 교집합/합집합으로 IoU를 계산하였다[19]. 이때 mean IoU는 모든 클래스에 대한 평균이다.

    4) 심박출계수(Ejection Fraction)

    심박출계수는 좌심실의 수축기말 및 확장기말의 관심영 역과 배경의 관심영역을 필요로 한다. 이에 본 연구에서는 수축기 영상에서 다음 Eq. (5)를 통해 배경의 관심영역을 산 출하였다.

    d i l a t e n ( B ) = n × i t e r { d i l a t e ( B ) } c r o p ( B ) = m a t r i x ( B ( m a x x / 2 , m a x y / 2 ) , B ( m a x x , m a x y ) ) R O I B G = c r o p { d i l a t e 3 ( R O I E S ) d i l a t e 8 ( R O I E S ) }
    Eq. (5)

    • B : 이진 행렬

    • n × iter : n회 반복

    • ROIES : 수축기말의 관심영역

    위의 dilate 함수는 형체기반필터(morphological filter) 중 팽창(dilation) 필터를 의미하며, 입력받은 이진행렬의 체적을 1 픽셀만큼 팽창시킨다. crop 함수는 입력받은 이진 행렬의 4사분면만을 잘라낸다. 곧, 1사분면부터 3사분면까 지의 픽셀값은 0이며, 4사분면에만 1인 행렬과의 교집합을 구한다. ROIBG는 팽창필터를 8회 적용한 관심영역과 3회 적 용한 관심영역의 차집합과 4사분면의 교집합이다.

    계수 정보는 픽셀값으로 표현할 수 있으며, 이는 곧, 좌심 실의 확장기말 체적(㎤)을 반영한다고 할 수 있다. 배경 관 심영역을 이용하여 순수 확장기말계수를 유도한 후 다음 Eq. (6)을 통해 심박출계수를 산출하였다.

    n e t E D V = n = 1 n ( P V n B G m e a n ) E F ( % ) = n e t E D V n e t E S V n e t E D V × 100
    Eq. (6)

    • n : 관심영역 내 픽셀 수

    • PV : 픽셀값

    • BG : Background의 픽셀값

    Ⅲ. 결 과

    1. 분할모델과 수동분할 간의 일치도

    학습된 분할모델을 통해 92 케이스의 테스트셋에 적용한 결과, 픽셀 정확도, 주사위 계수, IoU는 확장기말에서 각각 99.32±0.20, 94.65±1.45, 89.89±2.62(%), 수축기말에 서 각각 99.26±0.34, 90.16±4.19, 82.33±6.69(%)로 나 타났다[Table 1].

    좌심실 관심영역의 픽셀값은 확장기말을 기준으로 사람 이 관심영역을 설정한 범위의 픽셀값 578k 대비 568k로 약 10k 작게(-1.73%) 나타났으며, 수축기말을 기준으로 278k 대비 286k로 약 8k 크게(+2.88%) 나타났다[Fig. 4]. 즉, 학습된 분할모델이 예측하여 분할한 관심영역의 픽셀값은 사람이 수동으로 설정한 평균 관심영역의 픽셀값에 비해 확 장기말에서 낮게, 수축기말에서 높게 측정되는 것을 확인하 였다.

    2. 좌심실 심박출계수의 평균 비교

    사람이 직접 관심영역을 설정한 경우의 좌심실 심박출계 수의 평균은 60.37±7.32%, 분할모델이 분할한 관심영역의 좌심실 심박출계수의 평균은 58.68±7.22%로 산출되었다. 두 집단 간의 평균 차이는 1.69%로, 분할모델의 관심영역에 서 심박출계수가 사람이 설정한 경우보다 보다 낮게 나타났 다. 또한 사람과 분할모델이 산출한 각 심박출계수는 유의 한 차이를 확인할 수 없었다(p >0.05, Wilcoxon signed rank test).

    Ⅳ. 고 찰

    GBP 검사는 심장 기능 저하를 예측할 수 있는 검사법 중 하나이므로, 좌심실 심박출계수를 통해 심장 기능을 평가하 는데 중요한 기준이 되어 높은 재현성이 요구된다[20]. 하 지만 좌심실 심박출계수는 관심영역의 크기 또는 형태에 민 감하여 사람마다 각기 다르게 수동으로 설정한 관심영역은 상당한 편차를 가지게 된다[21]. 이에 본 연구는 다수의 사 람이 사전에 설정한 관심영역을 학습한 분할모델과 실제 사 람이 설정한 관심영역 및 좌심실 심박출계수 차이를 확인하 고, 향후 임상에서의 활용 가능성을 제시하고자 하였다.

    좌심실 심박출계수는 공식에 따라 산출하였으며, 확장기 말의 관심영역 픽셀값이 낮게 설정될수록, 수축기말 관심영 역 픽셀값이 높게 설정할수록 그 결과값이 작아지는 것을 확인할 수 있었다. 특히 좌심실 심박출계수는 수축기말 관 심영역에 오차가 있는 경우에 더 민감하게 변화되었다.

    본 연구에서 Table 1의 결과를 통해 분할모델이 확장기말 과 수축기말 관심영역의 픽셀값에서 각각 10k 가량 낮게 (-1.73%), 8k 가량 높게(+2.88%) 설정하는 것을 확인하였 다. 이 결과는 사람이 평균적으로 설정한 좌심실 관심영역 보다 더 넓거나 좁은 관심영역을 설정했거나, 좌심실이 아 닌 심장 또는 배경의 다른 영역을 침범하여 설정했을 가능 성을 내포한다. 특히 Table 1의 크기 차이를 보면 분할모델 의 관심영역 크기 변화로 인해 픽셀값의 변화가 있었을 가 능성이 높다고 판단된다. 이를 증명하기 위하여 관심영역의 좌심실 외 영역 침범 가능성에 대하여 육안적 평가를 진행 한 결과, 좌심실 영역이 아닌 영역을 침범하는 등의 문제는 확인할 수는 없었다.

    또한, 이를 정량화한 평가지표인 픽셀 정확도, 주사위 계 수, IoU 등도 각각 99%, 90%, 82% 이상으로 두 영역이 유 사하다는 결과로 해석되었다. 단, 수축기말이 확장기말의 관심영역에 비하여 모든 지표가 낮게 평가되어, 학습된 모 델이 수축기말의 관심영역을 예측하는데 더 어려움을 가진 것을 알 수 있다. 확장기말과 수축기말의 픽셀값 오차는 좌 심실 심박출계수를 낮추는데 각각 기여하였고, 수축기말의 관심영역 재현 오차는 확장기말에 비해 좌심실 심박출계수 예측 오차에 더 큰 기여를 하였음을 알 수 있다.

    하지만 본 관심영역에 대한 평가지표만으로는 좌심실 심 박출계수에 평균 차이가 있다고 해석할 수 없으므로 평균 차이를 평가하기 위하여 비모수적 통계 검정을 시행하였고, 유의미한 차이가 없음을 확인하였다. 이를 통해 분할모델에 서 예측된 좌심실 심박출계수는 사람이 산출한 좌심실 심박 출계수와 유사하다는 결론을 내릴 수 있었다.

    단, 본 연구의 한계점으로, 확장기말 관심영역 픽셀값이 낮게, 수축기말 관심영역 픽셀값이 높게 산출된 이유가 불 분명하다는 점이 있으나, 향후 더 많은 표본 영상의 수와 연 구참여자를 통해 데이터를 확보하면 분할모델의 관심영역 이 좌심실 심박출계수를 낮게 산출하는 현상에 대한 근거를 찾아낼 수 있을 것으로 기대된다.

    또한, 본 연구에서는 전문적 지식을 지닌 전문가 대신 14 명의 방사선과 학생들이 관심영역을 설정하는데 참여하였 기 때문에, 각 개인이 설정한 관심영역의 정확도에 대한 한 계점이 존재하였다. 하지만 관심영역의 신뢰성에 대한 문제 를 방지하기 위하여, 방사선과 학생 14명의 평균 관심영역 을 산출하여 학습하였고, 평균 관심영역의 형태는 핵의학 전문가의 검수를 거쳐 일반적인 핵의학 전문 방사선사가 설 정한 관심영역과 유사함을 확인하였기 때문에 신뢰성을 확 보할 수 있었다. 특히 본 연구의 주요 목표는 사람이 설정한 평균 관심영역과 분할모델이 예측한 관심영역의 재현성을 비교하는 것이므로, 관심영역의 정확도는 상대적으로 중요 성이 적다고 할 수 있다.

    하지만 차후 연구에서 임상의 경험이 있는 전문가의 연구 참여와 관심영역의 정확도를 높이는 것은 더 정확한 좌심실 심박출계수를 산출하는 중요한 요인이 될 수 있을 것으로 보인다. 그 이유는 실제 임상의 방사선사의 관심영역 영상 을 기준으로 영상의 특징(feature)을 정량화할 수 있고, 방 사선사가 설정한 관심영역과 훈련받은 학생의 관심영역의 통계적 차이를 검정하여 차이를 발견하고, 이를 통해 이상 치를 제거하여 신뢰성을 확보한 데이터를 더 많이 확보할 수 있기 때문이다.

    또한, 향후 표본 영상을 다양화하여 사람의 관심영역 설 정에 대한 통계적인 오차를 줄이고, 학습 데이터셋을 증량 하여 정확도를 높이는 방법이 요구된다. 본 연구에서는 전 체 학습 자료의 수가 적은 문제로 인해 전체 데이터셋을 2배 로 증량하기 위하여 확장기말과 수축기말 영상뿐만 아니라 동일 환자의 확장기와 수축기의 영상을 추가로 활용하였다. 이 방법으로 학습 데이터를 증량시킬 수 있어 예측 정확도 향상에 도움이 되었지만, 실제 확장기말과 수축기말 영상을 추가로 확보하여 학습한다면 더 높은 정확도 향상을 기대할 수 있을 것이다. 또한, CT, MRI 영상을 통해 심장 하부구조 를 사전 파악하거나, 높은 해상도의 영상을 확보하는 것은 좌심실 구조 판단에 대한 사람의 실수를 줄여 관심영역 설 정에 도움이 될 수 있으며, SPECT나 심장초음파 등을 통해 좌심실 심박출계수를 참고한다면 학습 성능을 보다 높일 수 있을 것으로 사료된다.

    그러므로, 본 연구에서 제시한 딥러닝을 이용한 자동화 분할 방법은 무작위 GBP 영상을 입력할 경우, 사람이 설정 한 평균적인 관심영역 및 좌심실 심박출계수를 유사하게 예 측한다. 이를 임상에서 활용한다면 GBP 영상 처리 및 분석 프로세스에서 영상 획득과 동시에 좌심실 관심영역이 자동 으로 설정되어 핵의학 영상 처리 소프트웨어에 표현될 수 있다. 이후 사람이 좌심실 관심영역을 수동으로 조절하여 처리한다면 방사선사의 처리 및 분석 프로세스의 효율성 및 정확도 향상에 크게 기여할 수 있을 것으로 기대한다. 뿐만 아니라 일차적으로 딥러닝을 이용한 좌심실 분할에 추가하 여 고전적인 영역확장(region growing) 알고리즘 등을 추 가로 융합하여 발전시킨다면, 이상적인 좌심실 관심영역 설 정기법이 완성될 수 있을 것으로 사료된다.

    Ⅴ. 결 론

    본 연구에서는 GBP 검사 시 딥러닝을 이용한 관심영역 설정의 유용성에 대해 평가하였다. DeepLabV3를 사용하여 학습을 진행한 후, 픽셀정확도, IoU와 주사위 계수 및 심박 출계수를 산출하였다. 분할모델의 픽셀 정확도, 주사위 계 수, IoU는 확장기말에서 각각 99.32±0.20, 94.65±1.45, 89.89±2.62(%), 수축기말에서 99.26±0.34, 90.16±4.19, 82.33±6.69(%)로 이미지 분할 능력이 우수하였고, 평균 심박출계수는 사람이 산출한 심박출계수보다 1.69% 적게 산출되었으나 평균적으로 유의한 차이를 발견할 수 없었다. 따라서 도출된 결과를 통해 GBP 검사에서 딥러닝을 이용하 여 관심영역을 자동으로 설정하고, 심박출계수를 산출할 수 있음을 확인하였다.

    향후, 핵의학 분야에서 관심영역을 설정해야하는 기능적 검사법에 위의 방법을 발전시켜 적용한다면 방사선사 업무 의 효율성과 검사 정확성 향상에 크게 기여할 수 있을 것이 다. 나아가 의료영상 전문의 또는 방사선사의 영상 판독과 의사결정을 보조하는 수단이 되어 의료의 질을 향상할 수 있을 것이라 사료된다.

    Figure

    JRST-45-2-151_F1.gif

    Extraction of diastolic (red, solid line) and systolic (blue, dotted) frames from ECG-gated blood pool images

    JRST-45-2-151_F2.gif

    (A) and (C) are average images of systolic and diastolic ROIs of the left ventricle, respectively. (B) and (D) are images binarized by applying the step function to (A) and (C).

    JRST-45-2-151_F3.gif

    Flow diagram of this study

    JRST-45-2-151_F4.gif

    These are ROI image set manually and ROI image set by DeepLabV3. Case 1 showed that DeepLabV3 of Diastolic is smaller than Ground Truth about 410 pixel. Also, DeepLabV3 of Systolic is larger than Ground Truth about 330 pixel. Case 2 also showed the similar result as Case 1.

    Table

    Performance indices measuring the reproducibility of the human’s ROI and the predicted ROI

    Reference

    1. National Cancer Center. Cancer registration statistics. Trends in the incidence of breast cancer (1999-2018).
    2. Abdel-Qadir H, Thavendiranathan P, Austin PC, Lee DS, Amir E, Tu JV, et al. The risk of heart failure and other cardiovascular hospitalizations after early stage breast cancer: A matched cohort study. JNCI: Journal of the National Cancer Institute. 2019;111(8):854-62.
    3. Go CS. Nuclear Medicine. 1st ed. Korea Medical Book; 1992:320-330.
    4. Hong YM, Chung EC. Comparison between Echocardiography and Cardiac Cine-MRI: Left Ventricular Volume and Cardiac Output. The Ewha Medical Journal. 1992;15(4):327-35.
    5. Kim JY, Kang CK, Kim YJ, Park HH, Kim JS, Lee CH. Study the Analysis of Comparison with AROI and MROI Mode in Gated Cardiac Blood Pool Scan. The Korean Journal of Nuclear Medicine Technology. 2008;12(3):222-8.
    6. Frangi AF, Niessen WJ, Viergever MA. Three-dimensional modeling for functional analysis of cardiac images: A review. IEEE Trans Med Imaging. 2001;20(1):2-5.
    7. Liao S, Gao Y, Oto A, Shen D. Representation learning: A unified deep learning framework for automatic prostate MR segmentation. Med Image Comput Comput Assist Interv. 2013;16(Pt 2):254-61.
    8. Wu G, Kim M, Wang Q, Gao Y, Liao S, Shen D. Unsupervised deep feature learning for deformable registration of MR brain images. Med Image Comput Comput Assist Interv. 2013;16(Pt 2):649-56.
    9. Chen C, Qin C, Qiu H, Tarroni G, Duan J, Bai W, et al. Deep Learning for Cardiac Image Segmentation: A Review. Front Cardiovasc Med. 2020;7:25.
    10. Lim SH, Lee MS. Fully Automatic Heart Segmentation Model Analysis Using Residual Multi-Dilated Recurrent Convolutional U-Net. KIPS Transactions on Computer and Communication Systems. 2020; 9(2):37-44.
    11. Koo HJ, Lee JG, Ko JY, Lee G, Kang JW, Kim YH, et al. Automated Segmentation of Left Ventricular Myocardium on Cardiac Computed Tomography Using Deep Learning. Korean J Radiol. 2020;21(6): 660-9.
    12. Saito S, Nakajima K, Edenbrandt L, Enqvist O, UlUn J, Kinuya S. Convolutional neural network- based automatic heart segmentation and quantitation in. EJNMMI Res. 2021;11(1):105.
    13. Ronneberger O, Fischer P, Brox T. eds. U-net: Convolutional networks for biomedical image segmentation. International Conference on Medical Image Computing and Computer-Assisted Intervention. Springer; 2015.
    14. Shelhamer E, Long J, Darrell T. Fully convolutional networks for semantic segmentation. IEEE Transactions on Pattern Analysis and Machine Intelligence. 2016;39(4):640-51.
    15. Chen LC, Zhu Y, Papandreou G, Schroff F, Adam H. Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation. Intell. Robot. Appl. 2018;34:833-51.
    16. Chen LC, Zhu Y, Papandreou G, Schroff F, Adam H. eds. Encoder-decoder with atrous separable convolution for semantic image segmentation. Proceedings of the European Conference on Computer Vision(ECCV). 2018.
    17. Russell B, Torralba A, Murphy K, Freeman W. Labelme: A database and web-based tool for image annotation. Int. Journal of Computer Vision. 2007; 77.
    18. Minaee S, Boykov YY, Porikli F, Plaza AJ, Kehtarnavaz N, Terzopoulos D. Image segmentation using deep learning: A survey. IEEE Transactions on Pattern Analysis and Machine Intelligence. 2021.
    19. Kim JH, Kim SH, Kim JH, Choi HI. Post-processing Algorithm Based on Edge Information to Improve the Accuracy of Semantic Image Segmentation. The Journal of the Korea Contents Association. 2021; 21(3):23-32.
    20. Choi HY, Kim DE, Jeong JH, Yun SH, Kim YS, Won WJ. The Study on Ejection Fraction Change According to Patient Position Difference in Gated Blood Pool Scan. The Korean Journal of Nuclear Medicine Technology. 2012;16(1):91-5.
    21. Okada R, Kirshenbaum H, Kushner F, Strauss H, Dinsmore R, Newell J, et al. Observer variance in the qualitative evaluation of left ventricular wall motion and the quantitation of left ventricular ejection fraction using rest and exercise multigated blood pool imaging. Circulation. 1980;61(1):128-36.