Journal Search Engine
Search Advanced Search Adode Reader(link)
Download PDF Export Citaion korean bibliography PMC previewer
ISSN : 2288-3509(Print)
ISSN : 2384-1168(Online)
Journal of Radiological Science and Technology Vol.45 No.1 pp.41-47
DOI : https://doi.org/10.17946/JRST.2022.45.1.41

Application of Deep Learning-Based Nuclear Medicine Lung Study Classification Model

Eui-Hwan Jeong1), Joo-Young Oh1), Ju-Young Lee2), Hoon-Hee Park3)
1)KISMITS Co.,Ltd.
2)Department of Radiological Technology, Songho College
3)Department of Radiological Technology, Shingu College
Corresponding author: Hoon-Hee Park, Department of Radiological Technology, Shingu College, 377, Gwangmyeong-ro, Jungwon-gu,
Seongnam-si, Gyeonggi-do, 13174, Republic of Korea / Tel: +82-31-740-1638 / E-mail: hzpark@shingu.ac.kr
23/11/2021 14/12/2021 09/01/2022

Abstract


The purpose of this study is to apply a deep learning model that can distinguish lung perfusion and lung ventilation images in nuclear medicine, and to evaluate the image classification ability. Image data pre-processing was performed in the following order: image matrix size adjustment, min-max normalization, image center position adjustment, train/validation/test data set classification, and data augmentation. The convolutional neural network(CNN) structures of VGG-16, ResNet-18, Inception-ResNet-v2, and SE-ResNeXt-101 were used. For classification model evaluation, performance evaluation index of classification model, class activation map(CAM), and statistical image evaluation method were applied. As for the performance evaluation index of the classification model, SE-ResNeXt-101 and Inception-ResNet-v2 showed the highest performance with the same results. As a result of CAM, cardiac and right lung regions were highly activated in lung perfusion, and upper lung and neck regions were highly activated in lung ventilation. Statistical image evaluation showed a meaningful difference between SE-ResNeXt-101 and Inception-ResNet-v2.



As a result of the study, the applicability of the CNN model for lung scintigraphy classification was confirmed. In the future, it is expected that it will be used as basic data for research on new artificial intelligence models and will help stable image management in clinical practice.



딥러닝 기반의 핵의학 폐검사 분류 모델 적용

정 의환1), 오 주영1), 이 주영2), 박 훈희3)
1)주식회사 키즈밋
2)송호대학교 방사선과
3)신구대학교 방사선과

초록


    Ⅰ. 서 론

    4차 산업혁명이 인공지능(Artificial Intelligence; AI) 을 필두로 관련 기술들이 비약적인 발전을 이뤄지고 있으 며, 의료분야는 높은 학술적, 경제적, 산업적 가치를 지니 고 있어 의료와 관련된 다양한 분야에서 최신 기술들을 접 목하려는 다양한 시도가 진행되고 있다[1]. 또한, 핵심 요 소인 인공지능은 디지털의 발전과 빅데이터 학습을 기반으 로 다양한 분야와 융합되어 관련한 연구가 활발히 진행되 고 있다[2].

    인공지능은 머신러닝(Machine learning), 딥러닝(Deep learning)을 포함한 상위 개념으로 머신러닝은 경험기반 의 지식(Knowledge from experience)을 구현하는 반면 딥러닝은 다 계층 구조를 이용한 대표학습(Representation learning)을 통해 스스로 데이터에서 유용한 특징을 추출하 는 과정으로 이어진다[3].

    이러한 딥러닝은 신경 네트워크의 작동 원리를 기반으로 한 알고리즘인 인공신경망(Artificial neural network; ANN)이 대표적이다. 이의 일종인 컨볼루션신경망(Convolution neural network; CNN)은 인간의 시각 처리 과정을 모방하기 위해 개발된 기술이며 영상의 분류 및 객체 검출에 우수한 성능 을 보이는 것이 입증되어 의료분야에 도입되고 있다[4]. 의 료영상 CNN의 개발과 적용은 데이터 입력이 쉽고 변수가 적어 의료영상의 판독 시 정확도 증가와 검사시간 단축이 가능하기 때문에 폭넓게 진단 시스템 개발에 활용되고 있으 며[5], 최근 핵의학 영상처리 분야에서도 다양한 시도가 진 행되고 있다[6].

    핵의학 분야에서는 폐색전증 진단 시 대표적인 폐 신티그 램(Lung scintigram)으로 폐관류 검사(Lung perfusion scan)와 폐환기 검사(Lung ventilation scan)를 시행하며, 비침습(Non-Invasive) 방법으로 수검자의 부담을 줄일 수 있는 장점이 있다[7].

    폐관류 검사는 방사성의약품을 정맥 투여하고, 폐환기 검 사는 가스(gas)성분의 방사성의약품을 흡입하는 차이가 있으 며, 획득된 영상은 영상처리(Image processing) 과정을 거 쳐 최종으로 의료영상 저장 전송시스템(Picture archiving and communication system; PACS)로 전송된다[8]. 검사 를 통해 획득된 영상은 명확하지 않아 영상 간 구분이 모호 하기 때문에 영상 저장 및 전송 과정에서 각별한 주의를 기 울일 필요가 있다. 하지만 일련의 과정에서 개인의 실수 및 오류가 발생한다면 정보가 왜곡된 영상을 통한 판독이 진행 될 수 있기 때문에 시스템에 의한 이중확인(Double check) 이 요구된다[9].

    그러므로 본 연구에서는 핵의학 폐검사 시 안정적인 영상 정보를 제공하여 판독의 오류를 감소하는데 추가적인 역할 을 수행할 수 있도록 핵의학 분야의 폐관류와 폐환기 영상 을 구분할 수 있도록 딥러닝 모델에 영상을 학습시켜 두 폐 검사 영상의 분류 성능을 평가하고자 한다.

    Ⅱ. 대상 및 방법

    1. 프로그램

    프로그래밍 언어로 파이썬(Python 3.9.6), 딥러닝 프레 임워크로 파이토치(PyTorch v1.7.1)를 사용하였다. 연구 환 경은 Intel i9-10940X 3.30GHz CPU와 GeForce RTX 3090 GPU를 사용하여 분석하였다.

    2. 영상 데이터의 전처리

    기초 작업을 위한 핵의학 폐검사 영상 중 전면상(Anterior image) 530장을 폐관류 영상 394장과 폐환기 영상 136장으 로 사전 분류하여 레이블링하였고, 전처리(Pre-processing)하 였다. 전처리는 각 영상의 매트릭스 크기 조정, 최소-최대 정규 화(Min-max normalization)와 영상의 중심 위치 조정, 인공 지능 학습/검증/평가 데이터 세트(Train/Validation/Test dataset)의 분류, 학습 데이터 증량(Data augmentation) 순 으로 진행하였다.

    초기 256 × 256의 매트릭스를 가진 530장의 영상을 사 전학습(Pre-trained) 모델을 사용하기 위해 224 × 224 영 상 사이즈로 재표본화(Re-sampling)했다. 다음으로 최소- 최대 정규화를 적용 후 255값을 곱하여 0부터 255의 그레이 스케일을 가진 영상으로 변환하였다.

    영상의 중심 위치 조정은 최소-최대 정규화 처리된 이미 지를 임계값 30 이상은 1, 임계값 30 미만은 0으로 처리하 여 이진 영상으로 변환하였다. 좌측 폐와 우측 폐의 이진 영 상의 중심인 무게중심(+)의 위치를 계산한 후, 두 무게중심 의 중앙 좌표(×)를 찾았다. 중앙 좌표(×)를 영상의 중심 좌 표(⦁)로 평행이동(Translation)하여 최종 이미지로 변환하 였다[Fig. 1]. 또한, 좌표 이동 시 발생한 바깥 부분의 빈 픽 셀은 ‘0’으로 처리(Zero-Padding)하였다. 무게중심을 이용 한 평행이동이 불가능한 일부 영상의 경우에는 전체 영상 세트의 평균 영상과 무작위 평행이동된 영상 사이의 정규화 된 상호 정보값 (Normalized Mutual Information)을 반복 측정하여, 가장 높은 값을 지니는 위치로 평행이동하였다.

    데이터 세트는 학습, 검증, 평가 데이터로 무작위 표본추 출(Random sampling)되어 분류되었다. 단, 사용된 폐관류 영상의 수와 폐환기 영상의 수의 비는 2.9:1로 불균형하므 로, 학습, 검증, 평가 데이터로 폐관류 영상은 각각 354장, 20장, 20장으로 사전 분류하였고, 폐환기 영상은 96장, 20장, 20장으로 사전 분류하였다. 비대칭 데이터 세트 (Imbalanced Dataset)를 균등화시키기 위하여, 폐환기 영 상의 학습 데이터는 학습 이전에 3.68배 무작위 업샘플링 (Random Up-sampling)하여, 학습 데이터 354장, 검증 데 이터 20장, 평가 데이터 20장의 영상 수로 폐관류 영상의 데이터 수와 균등하게 적용되었다.

    학습 데이터는 학습 중 각 세대(Epoch)가 거듭될 때마다 영상의 크기와 형태, 색상 등을 변경하여 데이터 증량(Data Augmentation)의 효과가 있도록 설정하였다.

    3. CNN 모델 적용

    두 검사 영상을 분류하기 위하여, CNN 중 범용적으로 적용 되는 아키텍처인 VGG-16, ResNet-18 구조와 성능이 상대적 으로 우수한 Inception-ResNet-v2, SE-ResNeXt-101 구 조를 사용하였다. 모든 구조는 사전 학습된 상태로 학습 데이 터를 총 100세대(Epoch)동안 학습을 진행하였고, 각 세대의 학습을 마치면 검증 데이터에 대해 정확도(Accuracy)를 반복 적으로 검증하였다. 가장 높은 정확도(Accuracy)를 기록한 세대의 모델을 최종 저장하여 평가 데이터 세트에 적용하여 최종 정확도를 확인했다.

    평가 데이터의 수가 적어 발생할 수 있는 최종 해석 오류 를 방지하기 위하여 각 모델별 총 5회의 학습과 반복 평가를 진행하였다. 매 회마다 최초 세대에 서로 다른 파라미터를 적용하여 변동된 초기 가중치(Weight)에서 학습되도록 초 기화(Initialization)하였다.

    4. 분류 모델 평가

    1) 분류 모델의 성능 평가 지표

    학습된 인공지능의 성능평가를 위해 평가 데이터를 각 분 류 모델을 통해 폐관류와 폐환기 두 가지 클래스(Class)로 자동 분류하였다. 5회의 평가 데이터 세트에 대해 분류된 결 과값은 혼동 행렬(Confusion matrix)에 기록하고, 예상값 (Instance of predicted class)과 실제값(Instance of actual class)을 비교하여 인공지능의 예측 성능을 측정하였다.

    본 연구에서는 학습된 인공지능이 폐관류와 폐환기 영상에 대한 분류 성능을 확인하기 위하여, 폐관류 영상을 참(Positive) 으로, 폐환기 영상을 거짓(Negative)으로 기준을 두었으며, 이를 통해 정확도(Accuracy), 민감도(Sensitivity), 특이도 (Specificity), F1-점수(F1-score)를 확인하였다.

    2) 분류-활성화 맵

    폐관류와 폐환기 영상은 다수의 영상으로 이루어져 전체 적인 비교가 적합하지 않으므로 각 영상 세트 별로 모든 영 상을 평균(Average)하여 표준 영상을 생성하였다.

    학습된 분류 모델의 영상 분류 결과의 근거를 확인하기 위하여, 각 모델이 어느 영역을 가중값을 두어 분류하였는 지를 시각화할 수 있는 분류-활성화 영상화 기법을 사용하 였다.

    3) 통계적 영상 평가

    폐관류와 폐환기 영상의 평균 분류-활성화 맵(Class Activation Map; CAM)의 차이를 확인하기 위하여, 폐환기 영상에서 폐관류 영상을 감산(Subtraction)하였고, 색상 맵 핑(Color mapping)을 하였다.

    두 검사의 분류-활성화 맵을 단순한 감산을 통해 맵의 차이 에 대해 픽셀 단위 T-검정(pixel wise T-test, independent) 을 통해 서로 유의한 차이를 시각화하였다.

    4) 정밀도-재현율 곡선

    정밀도-재현율 곡선(Receiver Operating Characteristic Curve; ROC)을 통해, 곡선하면적(Area under the curve; AUC) 값을 산출하여, 각 분류 모델의 분류 성능을 비교하였다.

    Ⅲ. 결 과

    1. 분류 모델의 성능 평가 지표

    폐관류와 폐환기 영상을 분류하는 모델에 대하여 총 5회의 반복 학습 및 평가를 통해 성능 평가지표를 산출한 결과, VGG-16 모델의 정확도와 F1-점수는 89.5, 88.6(%)로 가장 낮은 성능을 나타냈고, SE-ResNeXt-101과 Inception-ResNet-v2는 동일 하게 98.5(%)의 성능으로 가장 높았다[Table 1]. SE-ResNeXt-101 과 Inception-ResNet-v2로 학습된 모델을 통해 폐관류와 폐환기 영상을 분류할 경우, 98.5%의 정확도로 두 영상을 분류 하는 성능을 기대할 수 있음을 의미한다.

    2. 분류-활성화 맵

    각 검사의 모든 영상을 평균(Average)하여 얻은 두 표준 영상의 경우, 폐음영이 육안으로 구분이 어려운 수준의 유 사한 농도로 표현되었으나, 폐환기 영상에서는 특징적인 목 (Neck) 부위의 음영이 관찰되었다. 모든 폐환기 영상을 육 안으로 확인한 결과, 136장의 영상 중 111장에서 목 부위의 음영을 관찰할 수 있었다.

    각 모델의 영상 분류에 대한 시각적 근거를 도출하기 위 하여, 폐관류 영상과 폐환기 영상에 각 분류 모델별로 평균 분류-활성화 맵(CAM)을 생성하였다. SE-ResNeXt-101과 VGG-16에서 폐관류 영상의 CAM은 공통으로 아래쪽 폐영 역 및 심장 위치, 폐환기 영상의 CAM은 위쪽 폐영역과 목 부위가 활성화되었다.

    Inception-ResNet-v2와 VGG-16 모델의 경우, 폐관류 영상을 평가할 때 환자의 우측 폐와 심장에 가장 높게 활성 화 되었지만, SE-ResNeXt-101과 ResNet-18 모델의 경 우, 폐의 중앙 지점을 중심으로 전반적인 폐영역이 활성화 되었다. 또한, 폐환기 CAM에서 Inception-ResNet-v2와 ResNet-18 모델은 목 부위의 활성화가 가장 높지 않았다. 두 모델은 육안으로 예측하기 어려운 다른 영상 분류 근거 를 토대로 분류하는 것으로 확인하였다. CAM 영상을 통해 동일한 학습 데이터를 사용하였음에도 각 모델별로 분류 방 법에 다소 차이가 있었다[Fig. 2].

    결과적으로 폐관류 CAM에서 심장부와 오른쪽 폐영역이 높게 활성화되었고, 폐환기 CAM에서 위쪽 폐영역과 목부 위에 높게 활성화되었다.

    3. 통계적 영상 평가

    폐관류 영상의 평균 CAM이 상대적으로 높게 나온 영역 은 적색, 폐환기 영상이 높게 나온 영역은 청색으로 표현되 며, 두 영역이 차이가 없는 영역은 백색으로 표현하였다. 모 든 분류 모델의 영상에서 위쪽 폐영역 또는 목 부위에 청색 으로 표현되었으며, 폐환기 영상의 평균 CAM이 높았다. 이 결과를 통해 식도나 기도에 오염된 방사성의약품이 두 검사 법의 분류에 중요한 판단 근거가 되었음을 알 수 있다.

    또한, CAM의 픽셀 단위 T-검정의 결과로, SE-ResNeXt-101 과 Inception-ResNet-v2의 경우에는 폐 바깥쪽 영역에서 유의 한 차이를 나타냈고(p<0.05), ResNet-18과 VGG-16의 경우에 는 유의한 차이를 나타내지 않았다. 픽셀 단위 T-검정 영상에서 목 부위 주변영역의 T값은 폐환기 영상 세트가 폐관류 영상 세트에 비하여 유의하게 높은 활성화 값을 나타냈다[Fig. 3].

    4. ROC의 해석

    평가 데이터에서 폐관류 영상을 분류를 기준으로 각 모델의 ROC를 확인한 결과, SE-ResNeXt-101, Inception-ResNet-v2, ResNet-18, VGG-16의 AUC 값은 각각 0.99, 0.99, 0.98, 0.95을 나타냈다. 또한, SE-ResNeXt-101과 Inception-ResNet-v2 의 ROC의 이진 분류 성능이 다른 모델과 비교하여 가장 높았다 [Fig. 4].

    Ⅳ. 고 찰

    핵의학 분야의 폐관류와 폐환기 영상은 명확하지 않아 영 상 간 구분이 모호하기 때문에 영상 저장 및 전송 과정에서 각별한 주의를 기울일 필요가 있으며, 영상처리과정에서 개 인의 실수 및 오류가 발생한다면 정보가 왜곡된 영상을 통 한 판독이 진행될 수 있기 때문에 시스템에 의한 이중확인 (Double check)이 요구된다. 정확한 영상 분류는 수검자의 만 족도와 방사선사의 업무 효율성에도 영향을 미칠 수 있다[10].

    그러므로 본 연구를 통해 여러 은닉 계층(Hidden layer) 으로 구성된 다양한 수준의 추상화 데이터 학습이 가능하며 시각적 개체 인식이 탁월한 CNN 모델을 활용하였다[11]. 각 모델은 폐관류와 폐환기 검사의 전면상을 학습하였고, 학습 결과를 검정하기 위해 다양한 지표를 산출하여 비교 평가했다.

    은닉 계층이 깊은 SE-ResNeXt-101, Inception-Resnet-v2 는 VGG-16, ResNet-18 모델에 비해 우수한 성적을 보였 으며[12-15], 깊은 신경망을 가진 모델의 경우 영상 내에 있 는 다양한 특징을 학습하며, 영상 간 구분점을 찾을 수 있는 성능이 좋았다.

    CAM을 통한 폐관류와 폐환기 검사 영상의 차이에서 폐 환기 영상의 경우 수검자의 방사성의약품 흡입 시 기관 (Trachea)에 방사성 물질이 잔류 되었을 가능성과 방사성의 약품 흡입 시 방사성 물질이 수검자의 타액(Saliva)과 결합 하여, 식도(Esophagus) 및 위(Stomach)에 잔류 되었을 가 능성이 있어 이를 파악하기 위하여 육안적 관찰 결과, 폐환 기 영상의 총 136장 중 111장의 영상이 기관 부위에 음영이 있음을 확인했다. 나머지 25장의 경우에는 기관부의 차이가 보이지 않았음에도 불구하고 폐의 영역을 보고 인공지능이 폐환기로 판단했다. 폐환기 영상의 수가 부족하여 학습/검 증/평가 데이터 세트로 분류가 원활하지 않아 목 부위 음영 유무를 판단하지 않고 무작위로 분류하여 연구를 진행했지 만, 이후 폐환기 영상 중 목 부위 음영이 없는 영상을 다량 수집한다면, 인공지능이 폐환기 영상 분류 시에 목 부위를 제외한 폐 영역을 중심으로 검사 간 차이에 대한 연구가 가 능할 것이라 사료된다.

    본 연구의 한계점으로 인공지능의 학습에 부족한 데이터 의 수와 폐관류와 폐환기 영상의 구성이 2.9:1로 불균형한 점이다. 이에 따라 실제 임상의 폐관류와 폐환기 영상을 본 연구에서 학습된 Inception-ResNet-v2와 SE-ResNeXt-101 모델을 적용하여 98.5% 정확도로 분별하기에는 한계점이 나타날 수 있다.

    또한, 데이터 불균형은 인공지능이 판단에 대해 문제가 발생하면 정확도가 증가할 수 있도록 많은 데이터가 있는 클래스로 판단하게 되기 때문에 검사 간 영상 세트의 불균 형을 맞춰주고, 다수의 영상 데이터가 수집되어 적용된다면 범용적으로 사용이 가능한 인공지능 모델을 개발할 수 있을 것으로 사료된다.

    추가적으로 전면상 뿐 아니라 후면상, 측면상, 사방향 등 의 다양한 영상 데이터를 인공지능 학습을 진행하면 다량의 정보를 통해 학습하게 되어 정확도와 판단력이 높은 다중 이미지 입력 조화 모델(Multiple image input ensemble model)을 구현할 것이라 사료된다.

    Ⅴ. 결 론

    본 연구는 인공지능을 통해 핵의학 검사 중 폐관류와 폐 환기 검사에서 얻을 수 있는 영상의 미세한 차이를 구분하 는데 목적을 두었다.

    4가지 CNN 모델(VGG-16, ResNet-18, SE-ResNeXt-101, Inception-ResNeXt-101)에 학습을 진행하여 비교・평가하였 다. 정확도, F1-점수, 특이도, 민감도 모두 SE-ResNeXt-101, Inception-ResNeXt-v2가 높게 평가되었다. 두 모델은 98.5%의 높은 정확도로 폐관류와 폐환기 영상을 분류할 수 있음을 알 수 있었다. CAM 분석을 통해 각 모델의 판단 근 거를 확인한 결과, SE-ResNeXt-101의 영상 판단 근거가 명확하였다.

    연구 결과를 통해 폐검사 분류에 대한 CNN 모델의 적용 가능성을 확인하였으며, 추후 새로운 인공지능 모델의 연구 에 기초자료로의 활용과 임상에서 안정적인 영상관리에 도 움을 줄 것이라 사료된다.

    Figure

    JRST-45-1-41_F1.gif

    A) is the min-max normalized image. (B) is the binary image after thresholding. (C) is the contoured image by the binary thresholded image. The cross ‘+’ shaped marks is the local centers of mass like C1( x , y ) and C2(x ,y ), the ‘x’ shaped mark is C(x ,y ) which is the central coordinate between C1 and C2. The ‘·’ shaped mark is translated to the global image center in (D).

    JRST-45-1-41_F2.gif

    Average images of lung perfusion scans and lung ventilation scans and average images of class activation map for each of the four models. Specially, neck shadowing is seen on lung ventilation scans.

    JRST-45-1-41_F3.gif

    The upper images are images obtained by subtracting lung ventilation CAM from lung perfusion CAM. The lower images are pixel-wise T-test results. The white part is the gray scale CAM image, and the result of pixel wise T-test was synthesized. Among the four models, SE-ResNeXt-101 and Inception-ResNet-v2 had significant differences. (p<0.05)

    JRST-45-1-41_F4.gif

    This is the receiver operating characteristic curve for the four models expressed through the test set. The area under the curve of all models was 0.95 or higher.

    Table

    Classification evaluation metrics of CNN to classify lung perfusion and ventilation scan (Average of 5 repetition learning) (unit : %)

    Reference

    1. David M. Artificial Intelligence in the Industry 4.0, and Its Impact on Poverty, Innovation, Infrastructure Development, and the Sustainable Development Goals: Lessons from Emerging Economies? Sustainability. 2021;13(11):5788.
    2. Humphreys D, Kupresanin A, Boyer MD, Canik J, Chang CS, Cyr EC, et al. Advancing Fusion with Machine Learning Research Needs Workshop Report. Journal of Fusion Energy. 2020;39:123-55.
    3. Christian J, Patrick Z, Kai H. Machine learning and deep learning. Electronic Markets. 2021;31:685-95.
    4. Zhong-Qiu Z, Peng Z, Shou-tao X, Xindong W. Object Detection with Deep Learning: A Review. IEEE Transactions on Neural Networks and Learning Systems. 2019 Jan;30(11):3212-32.
    5. Alexander Selvikvåg L, Arvid L. An overview of deep learning in medical imaging focusing on MRI. Zeitschrift für Medizinische Physik. 2019 May; 29(2):102-27.
    6. Keisuke K, Sho F, Kenji H, Chietsugu K, Osamu M, Kentaro K, et al. A convolutional neural network- based system to classify patients using FDG PET/CT examinations. BMC Cancer [Internet]. 2020 [published 2020 Mar 17]; 20(227):1-10.
    7. Ajda S, Damjana H, Jure F, Marko G. Lung scintigraphy in the diagnosis of pulmonary embolism: Current methods and interpretation criteria in clinical practice. Radiol Oncol. 2014;48(2):113-9.
    8. Hasan HK, Rahmita OKR, Dimon MZ. Components and implementation of a picture archiving and communication system in a prototype application. Reports in Medical Imaging. 2019;12:1-8.
    9. Chen-Hua C, Chi-Lun W, Hung-Wen C. Automatic classification of medical image modality and anatomical location using convolutional neural network. PLoS ONE [Internet]. 2021 [published 2021 Jun 11]; 16(6):e0253205.
    10. Kicky G. van L, Maarten de R, Steven S, Bram van G, Matthieu JCMR. How does artificial intelligence in radiology improve efficiency and health outcomes? Pediatr Radiology [Internet]. 2021 [published 2021 Jun 12].
    11. Dulari B, Chirag P, Hardik T, Jigar P, Rasmika V, Sharnil P, et al. CNN Variants for Computer Vision: History, Architecture, Application, Challenges and Future Scope. Electronics [Internet]. 2021 [published 2021 Oct 11]; 10(20):2470.
    12. Danish N, Khurram Azeem H, Alain P, Marcus L, Didier S, Muhammad Zeshan A. HybridTabNet: Towards Better Table Detection in Scanned Document Images. applied sciences [Internet]. 2021 [published 2021 Sep 11]; 11(18):8396.
    13. Ibon M, Jon A, Anthony R, Basilio S. 3D Convolutional Neural Networks Initialized from Pretrained 2D Convolutional Neural Networks for Classification of Industrial Parts. Sensors [Internet]. 2021 [published 2021 Feb 4]; 21(4):1078.
    14. Karen S, Andrew Z. Very Deep Convolutional Networks for Large-Scale Image Recognition. International Conference on Learning Representations(ICLR) [Internet]. 2015 [last revised 2015 Apr 10]; arXiv:1049. 1556v6. Available from: https://arxiv.org/abs/1409. 1556v6
    15. Kaiming H, Xiangyu Z, Shaoqing R, Jian S. Deep Residual Learning for Image Recognition. IEEE Conference on Computer Vision and Pattern Recognition(CVPR). 2016;1:770-8.