Structuring of Pulmonary Function Test Paper Using Deep Learning

In this paper, we propose a method of extracting and recognizing related information for research from images of the unstructured pulmonary function test papers using character detection and recognition techniques. Also, we develop a post-processing method to reduce the character recognition error r...

Full description

Saved in:
Bibliographic Details
Published in韓國컴퓨터情報學會論文誌 Vol. 26; no. 12; pp. 61 - 67
Main Authors Jo, Sang-Hyun, Kim, Dae-Hoon, Kim, Yoon, Kwon, Sung-Ok, Kim, Woo-Jin, Lee, Sang-Ah
Format Journal Article
LanguageKorean
Published 2021
Online AccessGet full text

Cover

Loading…
More Information
Summary:In this paper, we propose a method of extracting and recognizing related information for research from images of the unstructured pulmonary function test papers using character detection and recognition techniques. Also, we develop a post-processing method to reduce the character recognition error rate. The proposed structuring method uses a character detection model for the pulmonary function test paper images to detect all characters in the test paper and passes the detected character image through the character recognition model to obtain a string. The obtained string is reviewed for validity using string matching and structuring is completed. We confirm that our proposed structuring system is a more efficient and stable method than the structuring method through manual work of professionals because our system's error rate is within about 1% and the processing speed per pulmonary function test paper is within 2 seconds. 본 논문에서는 문자 검출 및 인식 기술을 활용하여 비정형의 폐 기능 검사지 이미지로부터 연구를 위한 관련 정보들을 추출하여 정형화하는 방법을 제안한다. 또한 문자 인식 오차율을 줄이기 위한 후처리 방법 또한 개발하고자 한다. 제안하는 정형화 방법은 폐 기능 검사지 이미지에 대해 문자 검출 모델을 사용해 검사지 내에 존재하는 모든 문자를 검출하고, 검출된 문자 이미지를 문자 인식 모델에 통과시켜 문자열을 얻어낸다. 얻어낸 문자열에 대해 문자열 매칭을 이용한 유효성 검토를 진행하고 정형화를 마무리한다. 제안하는 정형화 시스템의 오차율은 약 1% 이내, 검사지 당 처리속도는 2초 이내로 전문인력의 수작업을 통한 정형화 방법보다 더 효율적이고 안정적인 방식이라는 것을 확인할 수 있다.
Bibliography:KISTI1.1003/JNL.JAKO202101355750169
ISSN:1598-849X
2383-9945