Detection of Proximal Caries Lesions with Deep Learning Algorithm

Article information

J Korean Acad Pediatr Dent. 2022;49(2):131-139
Publication date (electronic) : 2022 May 31
doi : https://doi.org/10.5933/JKAPD.2022.49.2.131
Department of Pediatric Dentistry, School of Dentistry, Seoul National University
김현태orcid_icon, 송지수orcid_icon, 신터전orcid_icon, 현홍근orcid_icon, 김정욱orcid_icon, 장기택orcid_icon, 김영재orcid_icon
서울대학교 치의학대학원 소아치과학교실
Corresponding author : Young-Jae Kim Department of Pediatric Dentistry, School of Dentistry, Seoul National University, 101 Daehak-ro, Jongno-gu, Seoul, 03080, Korea Tel: +82-2-2072-3080 / Fax: +82-2-744-3599 / E-mail: neokarma@snu.ac.kr
※The authors declare that there is no conflict of interest.
Received 2021 October 10; Revised 2021 November 26; Accepted 2021 November 28.

Abstract

이번 연구는 소아의 인접면 우식을 진단하는데 있어 사용하고 있는 구내방사선 사진에서 심층학습(deep learning) 알고리즘을 활용하여 치아우식을 진단하는 모델의 성능을 평가하고자 하였다. 제1유구치와 제2유구치 사이의 인접면이 포함된 500개의 구내방사선 사진을 대상으로 연구를 시행하였다.

치아우식을 진단하는 모델의 학습에는 Resnet50 기반의 인공신경망 모델을 사용하였다. 평가자료군에서 진단모델의 정확도, 민감도, 특이도를 구하고, ROC 곡선을 얻어 AUC 값을 바탕으로 분류 모델의 성능을 평가하였다.

학습 모델의 정확도는 0.84, 민감도는 0.74, 특이도는 0.94로 나타났으며 AUC는 0.86으로 나타났다.

인공신경망을 기반으로 하는 소아의 구내방사선 사진에서의 인접면 우식의 진단 모델은 비교적 높은 정확도를 보여주었다. 심층학습 모델은 구내방사선 사진상에서 인접면 우식을 진단하는데 있어 향후 치과의사를 보조하는 진단 도구로서 활용될 수 있을 것이다.

Trans Abstract

This study aimed to evaluate the effectiveness of deep convolutional neural networks (CNNs) for diagnosis of interproximal caries in pediatric intraoral radiographs.

A total of 500 intraoral radiographic images of first and second primary molars were used for the study. A CNN model (Resnet 50) was applied for the detection of proximal caries. The diagnostic accuracy, sensitivity, specificity, receiver operating characteristic (ROC) curve, and area under ROC curve (AUC) were calculated on the test dataset. The diagnostic accuracy was 0.84, sensitivity was 0.74, and specificity was 0.94. The trained CNN algorithm achieved AUC of 0.86.

The diagnostic CNN model for pediatric intraoral radiographs showed good performance with high accuracy. Deep learning can assist dentists in diagnosis of proximal caries lesions in pediatric intraoral radiographs.

Ⅰ. 서 론

치아우식은 치면과 치아주위의 바이오필름(biofilm) 사이에서 탈회와 재광화로 이루어지는 동적인 과정에 균형이 깨짐으로 인해 나타내는 질병으로 전세계적으로 가장 흔하게 나타나는 만성 구강질환 중 하나이다[1]. 이는 소아 청소년 뿐만 아니라 성인들에서도 다빈도로 발병하는 질병이며 개인의 삶의 질을 떨어뜨려 전세계적으로도 예방과 치료에 관심이 많다[2,3].

치아우식의 진단을 위해 전통적으로 치면을 깨끗하게 한 후 숙련된 치과의사가 직접 치아를 관찰하고 촉진하는 방식을 주로 사용해 왔다[4]. 치아와 치아 사이에서 발병하는 인접면 우식은 교합면 하방에서 시작하고, 구치부 인접면의 접촉면이 넓기 때문에 구치부의 우식 병소가 일정수준 진행되기 전까지는 시진 및 촉진으로 관찰되지 않는 경우가 많다[5,6]. 파노라마 방사선 사진만으로 인접면 우식을 진단하는것은 부정확하기 때문에 치근단방사선사진(periapical radiographs)이나 교익방사선사진(bitewing radiographs)과 같은 구내방사선(intraoral radiographs)를 함께 진단에 사용한다[7,8].

의료 영상에 있어 컴퓨터도움진단(computer-aided diagnosis) 기술은 의학 및 치의학 영상 진단에 부가적인 도움을 주는 방향으로 발전을 이뤄 왔다[9]. 최근에는 인공지능에 대한 연구가 활발하게 진행되면서 컴퓨터를 활용한 진단법이 더욱 정교해지고 있다.

인공지능은 컴퓨터(기계)가 인간처럼 이성적으로 생각하고 행동하는 시스템을 갖도록 만드는 것을 의미한다[10]. 기계학습(machine learning)은 인공지능의 범주 내에 속하는 개념으로 알고리즘을 이용해 데이터를 분석하고 학습하며 이를 바탕으로 판단이나 예측을 하는 시스템이다. 기계학습 기반 의사결정시에는 데이터와 알고리즘을 통해 학습한 내용을 바탕으로 작업을 수행한다. 심층학습(deep learning)은 기계학습의 하위 개념으로 볼 수 있으며 뇌의 뉴런과 유사한 정보의 입출력 계층을 활용해 데이터를 학습한다(Fig. 1). 학습모델을 사전에 사람이 정의하고 학습시키는 기존의 기계학습의 개념과 달리 이러한 것들을 컴퓨터가 스스로 자료의 구조와 특성을 반복해서 학습하게 된다[11,12]. 예를 들어 방사선 사진에서 치아우식을 구분하는 작업을 시행할 때 기계학습은 사람이 직접 치아우식 영상의 특성을 정의하고 자료를 만들어 이를 기반으로 컴퓨터에게 지시하여 치아우식이 있는 치아를 구분하는 과정이라면 심층학습을 기반으로 한 모델은 알고리즘에 의해 컴퓨터가 치아우식이 있는 사진을 입력값으로 받아 스스로 특징을 찾아내고 학습하며 구분하는 과정을 한번에 수행한다. 심층학습 알고리즘에는 대표적으로 이미지 분류 및 음성 인식분야에서 좋은 성능을 보여주는 합성곱신경망(convolutional neural networks, CNNs)과 문자인식에 좋은 성능을 보여주는 순환신경망(recurrent neural networks, RNNs)이 있으며[13][14], 의료영상 분야에서는 주로 합성곱신경망 기반의 VGG16, GoogLeNet, ResNet, DetectNet, UNet과 같은 다양한 모델을 바탕으로 연구가 이루어지고 있다.

Fig 1.

Key aspects of artificial intelligence.

기존에는 인공신경망의 학습을 위해서 복잡한 프로그래밍 언어를 이해하고 구현할 수 있는 능력이 필요했다. 하지만 최근들어 고수준의 Application programming interface (API) 영역에서 인공신경망 이론을 비교적 간단하게 구현할 수 있는 라이브러리들이 개발되었고 현재 여러 분야에서 이용하고 있다. 이번 연구에서는 고수준의 API인 Fastai[15] 라이브러리를 사용하여 알고리즘 모델을 학습시키고 그 결과를 분석하였다. Fastai는 PyTorch[16]를 기반으로 하는 라이브러리로 인공지능 분야의 전문가가 아닌 임상가들도 Python 프로그래밍 언어에 대한 경험이 있고, 사용법에 조금만 익숙해진다면 충분히 사용 가능할 정도로 쉽게 구성되어 있다.

현재까지 소아의 유구치부위의 인접면 우식을 진단하는데 있어서 인공신경망 이론을 활용한 모델에 대한 연구는 부족하다. 따라서 이번 연구에서는 합성곱신경망 모델을 이용하여 구내방사선사진에 나타난 소아의 유구치 부위의 우식병소를 학습시키고, 학습된 진단 모델의 성능을 평가하여 추후 방사선 사진상에서 인접면 우식을 진단하는 보조도구로서의 활용 가능성에 대해서 고찰하고자 한다.

Ⅱ. 연구 대상 및 방법

1. 연구대상

이번 연구는 서울대학교치과병원 연구심의위원회(Institutional Review Board)의 승인을 받았다(IRB No. ERI21033). 2015년 1월부터 2020년 12월까지 서울대학교치과병원 소아치과에서 치아우식의 진단을 목적으로 촬영한 3세에서 8세 사이의 유구치 부위 구내방사선 사진을 대상으로 하였다.

유구치부위의 인접면 우식 탐지를 위해서 주로 교익방사선 사진을 촬영하였다. 하지만 이번 연구에서 교익방사선 촬영시 사용한 디지털 필름은 비교적 크기와 두께가 큰 편으로 소아 환자들의 경우 교익방사선 촬영시 필름을 지시에 따라 제대로 교합하지 못하는 경우들이 발생하였다. 이런 경우에는 상악과 하악을 따로 촬영하되 중심방사선 조사 각도를 조절하여 인접면 접촉부위에 조사하고 협측 및 설측 교합면이 겹치게 촬영될 수 있도록 하였다. 이러한 촬영기법은 엄밀한 의미로 교익방사선 사진이라고 할 수 없으며 조사 각도를 조절한 치근단방사선 사진에 해당한다. 이번 연구에서는 교익방사선 사진과 더불어 조사 각도를 조절해 치관부 인접면 부위가 명확하게 나오도록 촬영한 치근단 방사선사진을 함께 포함하였고, 이 두종류의 방사선 사진을 통틀어 구내방사선 사진으로 정의하였다.

건전치아와 인접면 우식치아의 진단은 두명의 소아치과 전문의에 의해 시행되었으며 두 검사자간의 진단이 일치하지 않는 경우에는 연구대상에서 제외하였다. 제1유구치와 제2유구치의 인접면이 명확하게 촬영된 구내방사선 사진을 대상으로 하였고, 제1유구치와 제2유구치 사이의 인접면 영역이 겹쳐서 인접면 우식의 진단이 어려운 경우, 인접면에 직접수복물이 있는 경우, 유구치부위에 전장관 수복을 받은 경우는 연구대상에서 제외되었다.

위의 선정 기준에 따라서 370명의 환자에서 얻어진 총 500개의 구내방사선 사진을 연구에 사용하였다. 인접면우식이 있는 부위는 243개(48.6%)였으며 인접면우식이 없음으로 진단된 건전 치아 부위는 257개(51.4%)였다(Table 1). 방사선 사진은 촬영 부위에 따라 하악우측부위 150개(30%), 하악좌측부위 170개(34%), 상악우측부위 90개(18%), 상악좌측부위 90개(18%)로 이루어졌다.

Descriptive characteristics of image datasets

2. 자료의 전처리

구내방사선 사진은 디지털 필름을 사용하여 표준화된 방사선촬영 절차에 따라 촬영하였다. 필름의 중앙부위에 유구치가 위치하고 필름 전연이 유견치의 1/2 정도에 위치하게 하며 중심방사선이 제1유구치와 제2유구치의 인접면 접촉부위의 상, 하악교합평면에 조사되도록 촬영을 시행하였다. 촬영시 관전압은 60 kV, 관전류는 7 mA, 노출시간을 0.16초로 설정하였다. 이렇게 얻어진 방사선 사진은 INFINITT G3(INFINITT Healthcare Co., Ltd, Seoul, Korea) PACS 시스템에 DICOM 형식으로 저장되었다.

연구에 사용할 구내방사선 사진은 PACS 시스템으부터 영상을 획득하여 JPEG 형식으로 저장하였다. 자료의 학습을 효율적으로 시행하기 위해서 한명의 치과의사가 제1유구치와 제2유구치의 인접면을 포함하도록 하여 Adobe Photoshop(Adobe System Inc., San Jose, CA, USA) 을 이용하여 이미지를 잘라내었다(Fig. 2). 상악 치아는 모두 영상의 상하반전을 통해 하악 치아와 같은 형태로 저장하였다. 무작위적인 방법을 통해 400개(80%)의 학습(training) 및 검증(validation) 자료군, 100개(20%)의 평가(test) 자료군으로 구분하였고 치아우식이 있는 영상과 치아우식이 관찰되지 않은 정상 영상은 각각 균등하게 배분되도록 하였다. 학습 자료군은 회전, 확대, 기울임의 자료 증강법(data augmentation)을 통해 이미지를 증폭시켜 학습 효과를 높였다.

Fig 2.

Examples of cropped intraoral radiographic images for training. (A) Caries dataset. (B) Normal dataset.

3. 인공신경망 알고리즘의 구현

Python 언어는 플랫폼 독립적으로 작용하며 인터프리터식, 객체 지향적 대화형 언어이다. Python 언어를 사용하면 코드를 최대한 간소하게 작성할 수 있어 프로그래밍을 단순화할 수 있는 장점이 있다. 대부분의 기계학습 및 심층학습 프레임워크들은 python 언어를 기반으로 만들어졌거나 python 언어를 지원한다.

Python 언어는 보통 가장 간단한 기본적인 기능만 포함하고 있는데 기본적인 바탕 위에 라이브러리라고 하는 추가적인 구성 요소들을 불러와 사용할 수 있다. 심층학습 연구의 기반이 되는 프레임워크는 보통 tensorflow와 pytorch를 많이 사용하고 있다. 특히 연구분야에서는 pytorch의 사용이 보다 늘어나고 있다. 그외에도 심층학습 분석에는 다양한 라이브러리들이 사용되며 필요한 라이브러리만 선택적으로 사용 가능하다(Table 2).

Python libraries in deep learning analysis

Fastai 라이브러리는 저수준의 API인 PyTorch 프레임워크를 기반으로 고수준의 기능을 정의하는 기본적인 연산 체계를 제공한다. 따라서 고수준의 코드를 사용하여 간단하고 빠르게 약간의 코딩작업만을 통해서 최신의 심층학습 기술을 활용할 수 있게 해 준다. 중간수준 및 저수준의 API 단계에서 인공지능 모델의 수정이 가능하게 하여 모델의 성능을 향상시킬 수 있는 유연성이 있으며, 학습 및 평가를 시행하는 과정에 그래픽코어(GPU)를 활용하기 때문에 복잡한 연산을 빠르게 할 수 있다는 장점이 있다.

4. 모델의 학습 및 평가

Fastai 라이브러리에서 사용 가능한 인공신경망 모델 중 이미지 분석에 뛰어난 성능을 가지고 있는 사전학습된 ResNet50 모델을 사용하여 전이학습을 시행하였다. 전이학습이란 다량의 이미지를 바탕으로 사전에 미리 학습된 신경망 모델의 가중치를 가져와서 치아우식을 진단하는 모델에 재보정해서 학습시키는 방법이다. 전이학습을 시행할 경우의 장점은 적은 수의 데이터를 가지고도 원하는 과제를 해결할 수 있는 충분한 심층학습 모델의 훈련이 가능하다는 점이다.

이번 연구에서는 400개의 학습 및 평가 자료군를 사용하여 모델 훈련을 시행하였고, 모델의 학습은 epoch: 500, batch: 16, learning rate: 0.001 하에서 시행하였다. 이는 전체 데이터는 500번 반복 학습을 시행하였고, 한번 학습에 동시에 16개의 이미지를 학습시켰으며, 최적화된 범위를 벗어나지 않고 학습의 성능을 저해시키지 않은 정도의 최적의 learning rate를 찾아 학습을 시행시켰다는 것을 의미한다.

프로그래밍 언어는 Python을 사용하였고 학습 및 평가 과정은 Nvidia Tesla K80 GPU 환경을 제공하는 Google Collaboratory 원격 클라우드 컴퓨터에서 시행하였다(Fig. 3).

Fig 3.

Diagram of the artificial intelligence model.

5. 통계 분석

평가 자료군은 학습에 포함되지 않은 100개의 구내방사선 사진으로 이루어졌으며, 이 자료를 사용하여 모델의 검증을 시행하였다(Fig. 3). 분류 모델의 평가를 위해 true positive(TP), true negative(TN), false positive(FP), false negative(FN)를 구하고 오차행렬(confusion matrix)를 계산하였다. 그리고 이를 기반으로 하여 정확도(accuracy), 민감도(sensitivity), 특이도(specificity)를 계산하였다.

Accuracy=TP+TNTP+FP+TN+FN Sensitivity=TPTP+FNSpecificity=TNTN+FP

Receiver operating characteristic (ROC) 곡선은 이진 분류기의 예측 성능 측정에서 중요하게 사용되는 지표이다. 예측 모델이 제대로 우식병소를 분류한 경우의 비율을 나타내는 민감도와 모델이 우식병소가 없는 경우를 우식이 있는 것으로 잘못 분류해내는 경우의 비를 나타내는 1-특이도 간에 관계를 그래프로 표시한 것으로 ROC 곡선이 직선에 가까울수록 분류모델의 성능이 떨어지며, 직선에서 멀어질수록 성능이 뛰어나다. Area under ROC curve(AUC) 값은 ROC 곡선 밑의 면적을 구한 것으로 가운데 직선에서 ROC 곡선이 멀어질수록 1의 값에 가깝게 되며 직선이 되는 경우는 0.5의 값을 갖는다.

이번 학습 모델은 치아우식의 유무를 판단하는 이진분류기의 성격을 갖고 있기 때문에 알고리즘 모델의 진단 성능을 평가하기 위해서 ROC 곡선을 구하고 AUC 값을 측정하여 인공지능 진단 모델의 성능을 평가하였다.

Ⅲ. 연구 성적

학습된 인공 신경망을 학습 및 검증과정에 포함하지 않은 100개의 구내방사선사진으로 이루어진 평가군을 대상으로 평가하였을 때의 검증 결과는 오차행렬의 형태로 표시하였다(Fig. 4). 정확도, 민감도, 특이도는 각각 0.84, 0.74, 0.94로 나타났다(Table 3).

Fig 4.

Confusion matrix on the test dataset.

Performance of artificial intelligence model

ROC 곡선은 Fig. 5에 표시하였다. ROC 곡선의 아래 면적을 나타내는 AUC의 값은 0.86이었다(Fig. 5).

Fig 5.

Receiver operating characteristic (ROC) curve for the test dataset.

Ⅳ. 총괄 및 고찰

치아우식을 조기에 진단하고 적절한 시기에 예방 및 수복 치료를 제공하는 것은 치과의사의 중요한 역할 중 하나이다. 특히 소아환자의 인접면 우식은 병소가 일정 수준으로 진행되기 이전에는 시진 및 촉진으로 발견하기 어렵다는 점에서 조기 진단이 더욱 중요하다. 이번 연구에서는 이미지 분류를 위해 ResNet50을 기반으로 하는 합성곱 신경망 모델을 사용하여 유구치부위의 인접면 우식 병소를 진단하기 위한 인공신경망 모델을 설계하고 모델의 성능을 평가하였다.

현재까지 우식 병소를 조기에 탐지하기 위한 다양한 진단 도구들이 개발되어 왔다. Digital imaging fiber-optic transillumination(FOTI), 레이저형광법(laser fluorescence), 초음파 우식 진단법(ultrasonic caries detector), 정량광유도형광법(quantitative light induced fluororescence, QLF) 등은 임상검사 및 방사선검사의 한계점을 극복하기 위해 사용되었다[17-19]. 하지만 진단 도구들은 추가적인 기구의 구매가 필요하다는 단점이 있어 일반적인 임상 환경에서는 여전히 방사선 사진을 우식 진단에 주로 활용하고 있다.

이러한 측면에서 방사선 사진에서 우식병소의 진단을 위해 인공지능을 활용한 연구들이 시행되어 왔다. Lee 등[20]은 인공신경망 모델을 사용하여 영구치의 치근단방사선 사진상에서 치아우식을 진단하는 능력을 평가하였다. 모델의 정확도는 0.82를 나타내었으며 소구치부위에서는 0.89, 대구치부위에서는 0.88의 정확도를 보였다. Cantu 등[21]은 3686개의 교익방사선사진의 우식병소를 U-Net 인공신경망 알고리즘을 활용하여 학습시켰으며 이를 치과의사군의 진단 능력과 비교하였다. 그 결과 학습된 인공신경망의 경우 치과의사군보다 더 높은 민감도를 보였다. Bayraktar와 Ayan[22]은 YOLO 인공신경망 이론을 기반으로 1000개의 교익방사선사진을 학습시켜 0.94의 정확도에 달하는 높은 결과를 얻었으며 민감도는 0.72, 특이도는 0.98를 나타냈다. 대부분의 연구에서 우식의 진단에 인공신경망을 기반으로한 학습 모델이 높은 정확도를 보여주었다. 하지만 주로 영구치열기 방사선 사진에 대한 연구가 대부분이었으며 유치열에 대한 진단 모델의 연구는 부족하였다[21,23].

이번 연구에서는 소아환자에서 가장 일반적으로 촬영하게 되는 유구치부위의 구내방사선사진을 활용해 연구를 시행하였다. 연구 결과 정확도는 0.84, 민감도는 0.74, 특이도는 0.94를 나타내었다. 전체 관측치 중 실제값과 예측치가 일치한 정도를 나타내는 정확도는 0.84로 이는 우식 진단 모델이 84%의 확률로 인접면 우식이 있는 경우와 없는 경우를 정확하게 분류한다는 것을 의미한다. 특이도는 실제 우식이 없는 방사선 사진 중 알고리즘의 진단 결과 우식이 없다고 판단한 비율이다. 이번 연구에서 특이도는 0.94로 우식이 없는 데이터에서는 94%의 확률로 정확하게 판단한다고 볼 수 있다. 하지만 비교적 민감도는 0.74로 낮은 수치가 나타났는데, 이는 실제 우식이 있는 방사선 사진 중 모델이 예측한 결과가 우식이 있다고 판단한 비율을 나타내며, 이번 연구에서는 74% 확률로 우식이 있는 것으로 분류해 내었다. 민감도가 특이도에 비해 낮은 수치를 나타내었는데 이는 방사선사진을 통한 심층학습 진단과 관련된 기존 연구들과 비슷한 경향성을 나타내었다[21,22,24]. 민감도가 낮은 이유는 초기 우식병소에 대한 진단능력의 민감성이 떨어지는 것에서 기인한 것으로 보인다. 학습 과정의 자료를 분석해 보면 우식이 법랑질에 국한되는 초기 우식병소들에서 학습 과정에서 높은 손실률(loss)을 보였다. 연구 대상을 설정하는 과정에서 초기 인접면 우식 병소에 대해 두 관찰자간 진단 결과가 일치하지 않는 경우가 종종 발생하였는데, 이런 방사선 사진은 학습 모델에서 배제되었고, 학습 모델에 사용된 자료에는 초기 인접면 우식이 존재하는 방사선 사진이 많이 포함되지 못하였다. 따라서 추후 연구에서는 초기 인접면 우식 병소를 갖는 자료를 더 많이 추가하여 학습 및 연구를 진행한다면 비교적 낮은 민감도를 보이는 학습 모델의 개선을 이룰 수 있을 것이다.

연구 결과 ROC 곡선의 하방 면적을 나타내는 AUC 값은 0.86으로 나타났다. 대개 AUC가 0.8 이상이 되면 훌륭한 성능을 갖는 이진분류기로 평가하는데 0.86의 값을 갖는 이번 알고리즘 분류 모델은 유구치부위의 인접면 병소를 진단하는데 있어서 진단학적 가치가 있는 것으로 보인다[25]. 하지만 이번 모델의 경우 0.74의 낮은 민감도를 나타내고 있어서 치아우식의 진단에 있어서 치과의사를 보조하는 역할 정도로 사용 가능 할 것이며 진단을 내리는 치과의사의 역할을 완전히 대체하기는 아직 어려울 것으로 보인다. 그 외에도 치과대학생들의 우식 진단 교육 보조도구로서 사용한다면 그 활용도가 클 것으로 예상한다.

이번 연구는 제한된 상황에서 이미지를 확보하였기 때문에 학습 및 평가에 많은 방사선사진을 포함하지 못했다는 한계점이 존재한다. 최근 심층학습 연구에서는 다기관에 걸쳐 다수의 자료를 확보하여 모델을 학습시키는 시도가 이루어지고 있는데[26], 소아의 방사선 사진 또한 다기관에 걸쳐 많은 양의 자료를 확보한다면 진단 모델의 정확성을 높일 수 있을 것이다.

이번 연구에서는 유치의 인접면 우식 병소를 단순히 분류(classification)의 문제로 단순화하여 우식의 유무를 검출하는 방법을 사용하였다. 즉 이번 연구로 얻어진 모델은 주어진 이미지에 인접면 우식이 있는지 없는지만을 분리하는 정도의 결과를 보여준다. 의료 영상과 관련된 연구에서는 객체감지(object detection) 및 분리(segmentation) 알고리즘이 활용 되고 있고, 영구치 치아우식을 검출하는 데 있어서 객체감지 및 분리 알고리즘을 활용한 연구들이 진행되었다. 객체감지를 유치의 인접면 우식의 진단에 활용한다면 방사선 사진에서 치아우식이 존재하는 부분을 검출하고 그 위치를 표시해주는 결과를 보여주며, 분리 알고리즘을 활용한다면 치아우식의 경계를 알고리즘이 구분하여 사람이 볼 수 있는 결과물로 보여줄 수 있다. 따라서 임상적으로 더 많은 정보를 제공할 수 있어 우식 진단에 더 큰 도움이 될 수 있을 것이다(Fig. 6). 추후 유치열기 우식 병소의 진단에 대한 추가적인 연구가 필요하며 이를 통해 유치열기 방사선 사진에서 보다 더 정확하고 많은 정보를 제공하는 인공지능 진단 모델을 개발할 수 있을 것이다.

Fig 6.

Suggestion for future research. (A) Object detection. (B) Segmentation.

Ⅴ. 결 론

이번 연구에서는 유치열기 및 혼합치열기 소아환자의 구내방사선 사진에서 인접면 우식 병소를 진단하는 인공신경망 모델을 개발하였다. 신경망 모델의 구현은 Fastai 라이브러리를 사용하였고 ResNet50을 기반으로 학습을 시행하였다. 분류 모델의 정확도는 0.84, AUC는 0.86으로 인접면 우식을 판별하는 진단도구로서 활용 가능한 수준으로 나타났다.

향후 더 발전 된 심층학습 알고리즘의 적용과 표준화된 다량의 방사선 사진 자료의 학습을 통해 보다 더 정확한 인공지능 진단 모델을 개발할 수 있을 것으로 기대한다.

References

1. Pitts NB, Zero DT, Ismail A, et al. Dental caries. Nat Rev Dis Primers 3:17030. 2017;
2. Featherstone JD. The science and practice of caries prevention. J Am Dent Assoc 131:887–899. 2000;
3. Sheiham A. Dental caries affects body weight, growth and quality of life in pre-school children. 201:625–626. 2006;
4. Selwitz RH, Ismail AI, Pitts NB. Dental caries. Lancet p. 51–59. 2007.
5. Eli I, Weiss EI, Kaffe I, et al. Interpretation of bitewing radiographs. Part 24:379–383. 1996;
6. Weiss EI, Tzohar A, Eli I, et al. Interpretation of bitewing radiographs. Part 2. Evaluation of the size of approximal lesions and need for treatment. J Dent 24:385–388. 1996;
7. Akkaya N, Kansu O, Arslan U, et al. Comparing the accuracy of panoramic and intraoral radiography in the diagnosis of proximal caries. Dentomaxillofac Radiol 35:170–174. 2006;
8. Schwendicke F, Tzschoppe M, Paris S. Radiographic caries detection: A systematic review and meta-analysis. J Dent 43:924–933. 2015;
9. Chan HP, Hadjiiski LM, Samala RK. Computer-aided diagnosis in the era of deep learning. 47:218–227. 2020;
10. Russel S, Norvig P. Artificial intelligence: a modern approach 4th edth ed. Pearson: Hoboken. p. 1–5. 2021.
11. LeCun Y, Bengio Y, Hinton G. Deep learning. Nature 521:436–444. 2015;
12. Rusk N. Deep learning. Nature Methods 13:35–35. 2016;
13. Albawi S, Mohammed TA, Al-Zawi S. Understanding of a convolutional neural network. 2017 International Conference on Engineering and Technology (ICET) 2017:21–23. 2017;
14. Zaremba W, Sutskever I, Vinyals O. Recurrent neural network regularization. ArXiv :abs:1409.2329–23. 2014;
15. Howard J, Gugger S. Fastai: A Layered API for Deep Learning. Information 11:108. 2020;
16. Paszke A, Gross S, Chintala S, et al. Pytorch: An imperative style, high-performance deep learning library. Adv Neural Inf Process Syst 32:8026–8037. 2019;
17. Schneiderman A, Elbaum M, Driller J, et al. Assessment of dental caries with Digital Imaging Fiber-Optic Translllumination (DIFOTI): in vitro study. Caries Res 31:103–110. 1997;
18. Lussi A, Hibst R, Paulus R. DIAGNOdent: An optical method for caries detection. J Dent Res 83:80–83. 2004;
19. Çalışkan Yanıkoğlu F, Öztürk F, Stookey GK, et al. Detection of natural white spot caries lesions by an ultrasonic system. Caries Res 34:225–232. 2000;
20. Lee JH, Kim DH, Jeong SN, Choi SH. Detection and diagnosis of dental caries using a deep learning-based convolutional neural network algorithm. J Dent 77:106–111. 2018;
21. Cantu AG, Gehrung S, Schwendicke , F , et al. Detecting caries lesions of different radiographic extension on bitewings using deep learning. J Dent 100:103425. 2020;
22. Bayraktar Y, Ayan E. Diagnosis of interproximal caries lesions with deep convolutional neural network in digital bitewing radiographs. Clin Oral Investig 26:623–632. 2022;
23. Lee S, Oh SI, Park JW, et al. Deep learning for early dental caries detection in bitewing radiographs. Sci Rep 11:16807. 2021;
24. Kamburoglu K, Kolsuz E, Ozen T, et al. Proximal caries detection accuracy using intraoral bitewing radiography, extraoral bitewing radiography and panoramic radiography. Dentomaxillofac Radiol 41:450–459. 2012;
25. Muller MP, Tomlinson G, Gold WL, et al. Can routine laboratory tests discriminate between severe acute respiratory syndrome and other causes of community-acquired pneumonia. Clin Infect Dis 40:1079–1086. 2005;
26. Krois J, Garcia Cantu A, Schwendicke , F , et al. Generalizability of deep learning models for dental image analysis. Sci Rep 11:6102. 2021;

Article information Continued

Fig 1.

Key aspects of artificial intelligence.

Fig 2.

Examples of cropped intraoral radiographic images for training. (A) Caries dataset. (B) Normal dataset.

Fig 3.

Diagram of the artificial intelligence model.

Fig 4.

Confusion matrix on the test dataset.

Fig 5.

Receiver operating characteristic (ROC) curve for the test dataset.

Fig 6.

Suggestion for future research. (A) Object detection. (B) Segmentation.

Table 1.

Descriptive characteristics of image datasets

Number of cases (%) Mean age (Min - Max) Gender (%)
Caries 243 (48.6%) 5.3 (3 - 8) M: 51.3, F: 48.7
Normal 257 (50%) 5.4 (3 - 8) M: 47.3, F: 52.7
Total 500 (100%) - -

Table 2.

Python libraries in deep learning analysis

Library Explanation
Tensorflow Computational framework for machine learning models.
Keras Fast and easy experimentation for neural networks.
Can run on top of TensorFlow and Theano.
PyTorch Computational framework that supports computer vision and machine learning.
Fastai Provides high-level components that can run on top of PyTorch.
Numpy Provides mathematical functions for large multi-dimensional arrays and matrices.
Pandas Data analysis designed for relational and labeled data.
Scikit-learn Provides supervised and unsupervised learning algorithms, data mining and data analysis.
Matplotlib Data visualization library to produce 2D and 3D plotting.
Theano Optimizing compiler for evaluating mathematical expressions.
SciPy Offers scientific computing modules for linear algebra, image optimization and signal processing.

Table 3.

Performance of artificial intelligence model

Measures Value Derivation
Accuracy 0.84 (TP+TN) / (TP+FP+TN+FN)
Sensitivity 0.74 TP / (TP+FN)
Specificity 0.94 TF / (TN+FP)

TP: True positive, TN: True negative, FP: False positive, FN: False negative