深層学習を用いた頭部単純X線画像における撮影精度の評価
【目的】本研究では,深層畳み込みニューラルネットワーク(deep convolutional neural network: DCNN)を用いて頭部単純X線の撮影精度を評価する方法を提案する.【方法】頭部ファントムを用いて頭尾方向に対し角度が異なる4方向(4カテゴリ)の画像データを取得した.撮影精度の指標である撮影角度,再撮影の適否についてDCNNの識別能力を検証した.DCNNにはsimple networkとVGG16を用いて入力画像サイズ,評価方法を変更し分類精度を検証した.【結果】5-fold cross-validationを用いた評価において比較的小さな入力画像サイズではsimple...
Saved in:
Published in | 日本放射線技術学会雑誌 Vol. 78; no. 1; pp. 23 - 32 |
---|---|
Main Authors | , , , , , , , |
Format | Journal Article |
Language | Japanese |
Published |
公益社団法人 日本放射線技術学会
20.01.2022
|
Subjects | |
Online Access | Get full text |
ISSN | 0369-4305 1881-4883 |
DOI | 10.6009/jjrt.780104 |
Cover
Abstract | 【目的】本研究では,深層畳み込みニューラルネットワーク(deep convolutional neural network: DCNN)を用いて頭部単純X線の撮影精度を評価する方法を提案する.【方法】頭部ファントムを用いて頭尾方向に対し角度が異なる4方向(4カテゴリ)の画像データを取得した.撮影精度の指標である撮影角度,再撮影の適否についてDCNNの識別能力を検証した.DCNNにはsimple networkとVGG16を用いて入力画像サイズ,評価方法を変更し分類精度を検証した.【結果】5-fold cross-validationを用いた評価において比較的小さな入力画像サイズではsimple networkが99.75%,VGG16が80.00%を示した.【結語】本提案手法の分類精度が99.75%を示したことから,わずかな角度差と再撮影の適否について自動認識できる可能性が示唆された. |
---|---|
AbstractList | 【目的】本研究では,深層畳み込みニューラルネットワーク(deep convolutional neural network: DCNN)を用いて頭部単純X線の撮影精度を評価する方法を提案する.【方法】頭部ファントムを用いて頭尾方向に対し角度が異なる4方向(4カテゴリ)の画像データを取得した.撮影精度の指標である撮影角度,再撮影の適否についてDCNNの識別能力を検証した.DCNNにはsimple networkとVGG16を用いて入力画像サイズ,評価方法を変更し分類精度を検証した.【結果】5-fold cross-validationを用いた評価において比較的小さな入力画像サイズではsimple networkが99.75%,VGG16が80.00%を示した.【結語】本提案手法の分類精度が99.75%を示したことから,わずかな角度差と再撮影の適否について自動認識できる可能性が示唆された. |
Author | 渡部, 晴之 李, 鎔範 坂口, 彩 下瀬川, 正幸 光武, 秀悦 林, 則夫 内山, 喜代志 小倉, 敏裕 |
Author_xml | – sequence: 1 fullname: 林, 則夫 organization: 群馬県立県民健康科学大学診療放射線学部 – sequence: 1 fullname: 小倉, 敏裕 organization: 群馬県立県民健康科学大学診療放射線学部 – sequence: 1 fullname: 渡部, 晴之 organization: 群馬県立県民健康科学大学診療放射線学部 – sequence: 1 fullname: 光武, 秀悦 organization: 帝京大学医学部附属病院中央放射線部 – sequence: 1 fullname: 内山, 喜代志 organization: 帝京大学医学部附属病院中央放射線部 – sequence: 1 fullname: 李, 鎔範 organization: 新潟大学医学部保健学科 – sequence: 1 fullname: 下瀬川, 正幸 organization: 群馬県立県民健康科学大学診療放射線学部 – sequence: 1 fullname: 坂口, 彩 organization: 群馬県立県民健康科学大学診療放射線学部(現 医療法人社団誠馨会千葉メディカルセンター) |
BookMark | eNo9kM9LAkEcxYcwyMxTf8fad5xxZzyK9AsELwXdlpnd2XIxi10vHVc7FSGJQXSpIMQIBSMQiuyPmdbN_yLF6PIevPd4h88qStROagqhdQwZEyC_4Xl-PcM4YKBLKIk5xwblnCRQEoiZNyiB3ApKB0FFwmw-i4AmUXkyGkbDp6jfjb_autGOOz0dnuvwfvrQnzZ70dVt_NY5iEd3cecjarZ0-KLDCx1e68blpD2IPofx6zh67-pw8PN88z1-XEPLrqgGKv3nKbS_tblX3DFK5e3dYqFkeARzMJhQLnZw1rQdSRUAp0IRQcBxmbKxY1JTujybtSVzCbWFiQWVrpQ5wEwyynMkhQqLXy-oi0NlnfqVY-GfWcKvV-yqsuYwLMYtPJcFlP_OPhK-5QnyC1AKeZQ |
ContentType | Journal Article |
Copyright | 2022 公益社団法人日本放射線技術学会 |
Copyright_xml | – notice: 2022 公益社団法人日本放射線技術学会 |
DOI | 10.6009/jjrt.780104 |
DatabaseTitleList | |
DeliveryMethod | fulltext_linktorsrc |
Discipline | Medicine |
EISSN | 1881-4883 |
EndPage | 32 |
ExternalDocumentID | article_jjrt_78_1_78_780104_article_char_ja |
GroupedDBID | .LE 2WC ABJNI ACGFS ALMA_UNASSIGNED_HOLDINGS KQ8 OK1 RJT |
ID | FETCH-LOGICAL-j3180-7aef1d126cdb4e0084ae3a30df7ec1d646bf822cb7f34ca61a4bfbb5017b74853 |
ISSN | 0369-4305 |
IngestDate | Wed Sep 03 06:30:52 EDT 2025 |
IsDoiOpenAccess | true |
IsOpenAccess | true |
IsPeerReviewed | false |
IsScholarly | true |
Issue | 1 |
Language | Japanese |
LinkModel | OpenURL |
MergedId | FETCHMERGED-LOGICAL-j3180-7aef1d126cdb4e0084ae3a30df7ec1d646bf822cb7f34ca61a4bfbb5017b74853 |
OpenAccessLink | https://www.jstage.jst.go.jp/article/jjrt/78/1/78_780104/_article/-char/ja |
PageCount | 10 |
ParticipantIDs | jstage_primary_article_jjrt_78_1_78_780104_article_char_ja |
PublicationCentury | 2000 |
PublicationDate | 2022/01/20 |
PublicationDateYYYYMMDD | 2022-01-20 |
PublicationDate_xml | – month: 01 year: 2022 text: 2022/01/20 day: 20 |
PublicationDecade | 2020 |
PublicationTitle | 日本放射線技術学会雑誌 |
PublicationTitleAlternate | 日放技学誌 |
PublicationYear | 2022 |
Publisher | 公益社団法人 日本放射線技術学会 |
Publisher_xml | – name: 公益社団法人 日本放射線技術学会 |
References | 9) 室井僚哉,李鎔範,蔡篤儀,他.不鋭を含む医用X線画像の自動認識法.信学技報2014; 113(410): 245–248. 21) Keras Documentation. Keras: The Python Deep Learning library. https://keras.io/ja/applications/#vgg16 (Accessed 28 Jan. 2021). 15) 山田朋奈,李鎔範,長谷川晃.深層学習を用いた前腕X線画像における腕の左右と向きの自動分類.医用画像情報会誌2019; 36(2): 83–87. 12) Toge R, Morishita J, Sasaki Y, et al. Computerized image searching method for finding correct patients for misfiled chest radiographs in a PACS server by use of biological fingerprints. Radiol Phys Technol 2013; 6(2): 437–443. 23) Jimmy Ba L, Caruana R. Do deep nets really need to be deep? 2014; arXiv:1312.6184v7. 6) 日本放射線技術学会,日本放射線技術学会専門委員会放射線技術品質保証班 編.2.2.2 一般撮影における合格基準.放射線医療技術学叢書(1) 放射線技術QCプログラム改訂・増補版.日本放射線技術学会出版委員会,1992: 57–61. 25) Selvaraju RR, Cogswell M, Das A, et al. Grad-CAM: visual explanations from deep networks via gradient-based localization. IEEE International Conference on Computer Vision (ICCV) 2017. doi: 10.1109/ICCV.2017.74 24) Zhou B, Khosla A, Lapedriza A, et al. Learning deep features for discriminative localization. 2015; arXiv:1512.04150v1. 4) 松田恵雄.埼玉医科大学総合医療センターが考える検像システム.日本放射線技術学会医療情報分科会雑誌2008; 10: 59–68. 16) Maruyama T, Hayashi N, Sato Y, et al. Comparison of medical image classification accuracy among three machine learning methods. J XRay Sci Technol 2018; 26(6): 885–893. 19) Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition. 2015; arXiv:1409.1556v6. 20) Deng J, Dong W, Socher R, et al. ImageNet: A large-scale hierarchical image database. IEEE Conference on Computer Vision and Pattern Recognition (CVPR) 2009: 248–255. 14) Shimizu Y, Morishita J. Development of a method of automated extraction of biological fingerprints from chest radiographs as preprocessing of patient recognition and identification. Radiological Phys Technol 2017; 10(3): 376–381. 11) Morishita J, Katsuragawa S, Sasaki Y, et al. Potential usefulness of biological fingerprints in chest radiographs for automated patient recognition and identification. Acad Radiol 2004; 11(3): 309–315. 22) Zagoruyko K, Komodakis N. Wide residual networks. 2017; arXiv:1605.07146v4. 13) Shimizu Y, Matsunobu Y, Morishita J. Evaluation of the usefulness of modified biological fingerprints in chest radiographs for patient recognition and identification. Radiol Phys Technol 2016; 9(2): 240–244. 2) 横岡由姫,奥田保男,坂本博,他.検像システムに求められる機能要件の実態調査.日放技学誌2018; 74(6): 580–590. 5) 山下一也,小川敬寿,巣組一男,他.3-1 頭蓋.診療放射線技術学大系—専門技術学系9 放射線検査学(X線).通商産業研究社,東京,1995: 103–130. 3) 山田英司,岸本健治,久住謙一,他.フィルムレス環境下における一般撮影検像システムの構築—正確で迅速な新しいワークフローの構築—.日放技学誌2011; 67(9): 1209–1215. 7) 黒木一典,古川博明.I-1 頭部・顔面・頸部領域.画像解剖に基づく単純X線写真の撮影法と読影のポイント.シー・ビー・アール,東京,2009: 2–3. 1) 日本放射線技術学会.画像情報の確定に関するガイドライン 第2.1版.2014. 18) 藤田広志 監修,原武史 編.3 Shallow networkの利用.医療AIとディープラーニングシリーズ 標準 医用画像のためのディープラーニング—実践編—.オーム社,東京,2019: 63–72. 8) 酒井友貴,高橋慶多,岩瀬賢祐,他.病室で撮影した胸部単純X線画像におけるファイリングミスの防止を目的とした生体指紋とテンプレートマッチング技術を用いた患者識別法の有用性に関する検討.日放技学誌2018; 74(10): 1154–1162. 10) Morishita J, Katsuragawa S, Kondo K, et al. An automated patient recognition method based on an imagematching technique using previous chest radiographs in the picture archiving and communication system environment. Med Phys 2001; 28(6): 1093–1097. 17) Kim TK, Paul HY, Wei J, et al. Deep learning method for automated classification of anteroposterior and posteroanterior chest radiographs. J Digit Imaging 2019; 32(6): 925–930. |
References_xml | – reference: 8) 酒井友貴,高橋慶多,岩瀬賢祐,他.病室で撮影した胸部単純X線画像におけるファイリングミスの防止を目的とした生体指紋とテンプレートマッチング技術を用いた患者識別法の有用性に関する検討.日放技学誌2018; 74(10): 1154–1162. – reference: 11) Morishita J, Katsuragawa S, Sasaki Y, et al. Potential usefulness of biological fingerprints in chest radiographs for automated patient recognition and identification. Acad Radiol 2004; 11(3): 309–315. – reference: 15) 山田朋奈,李鎔範,長谷川晃.深層学習を用いた前腕X線画像における腕の左右と向きの自動分類.医用画像情報会誌2019; 36(2): 83–87. – reference: 17) Kim TK, Paul HY, Wei J, et al. Deep learning method for automated classification of anteroposterior and posteroanterior chest radiographs. J Digit Imaging 2019; 32(6): 925–930. – reference: 24) Zhou B, Khosla A, Lapedriza A, et al. Learning deep features for discriminative localization. 2015; arXiv:1512.04150v1. – reference: 13) Shimizu Y, Matsunobu Y, Morishita J. Evaluation of the usefulness of modified biological fingerprints in chest radiographs for patient recognition and identification. Radiol Phys Technol 2016; 9(2): 240–244. – reference: 18) 藤田広志 監修,原武史 編.3 Shallow networkの利用.医療AIとディープラーニングシリーズ 標準 医用画像のためのディープラーニング—実践編—.オーム社,東京,2019: 63–72. – reference: 1) 日本放射線技術学会.画像情報の確定に関するガイドライン 第2.1版.2014. – reference: 10) Morishita J, Katsuragawa S, Kondo K, et al. An automated patient recognition method based on an imagematching technique using previous chest radiographs in the picture archiving and communication system environment. Med Phys 2001; 28(6): 1093–1097. – reference: 6) 日本放射線技術学会,日本放射線技術学会専門委員会放射線技術品質保証班 編.2.2.2 一般撮影における合格基準.放射線医療技術学叢書(1) 放射線技術QCプログラム改訂・増補版.日本放射線技術学会出版委員会,1992: 57–61. – reference: 14) Shimizu Y, Morishita J. Development of a method of automated extraction of biological fingerprints from chest radiographs as preprocessing of patient recognition and identification. Radiological Phys Technol 2017; 10(3): 376–381. – reference: 23) Jimmy Ba L, Caruana R. Do deep nets really need to be deep? 2014; arXiv:1312.6184v7. – reference: 7) 黒木一典,古川博明.I-1 頭部・顔面・頸部領域.画像解剖に基づく単純X線写真の撮影法と読影のポイント.シー・ビー・アール,東京,2009: 2–3. – reference: 20) Deng J, Dong W, Socher R, et al. ImageNet: A large-scale hierarchical image database. IEEE Conference on Computer Vision and Pattern Recognition (CVPR) 2009: 248–255. – reference: 5) 山下一也,小川敬寿,巣組一男,他.3-1 頭蓋.診療放射線技術学大系—専門技術学系9 放射線検査学(X線).通商産業研究社,東京,1995: 103–130. – reference: 16) Maruyama T, Hayashi N, Sato Y, et al. Comparison of medical image classification accuracy among three machine learning methods. J XRay Sci Technol 2018; 26(6): 885–893. – reference: 3) 山田英司,岸本健治,久住謙一,他.フィルムレス環境下における一般撮影検像システムの構築—正確で迅速な新しいワークフローの構築—.日放技学誌2011; 67(9): 1209–1215. – reference: 4) 松田恵雄.埼玉医科大学総合医療センターが考える検像システム.日本放射線技術学会医療情報分科会雑誌2008; 10: 59–68. – reference: 9) 室井僚哉,李鎔範,蔡篤儀,他.不鋭を含む医用X線画像の自動認識法.信学技報2014; 113(410): 245–248. – reference: 12) Toge R, Morishita J, Sasaki Y, et al. Computerized image searching method for finding correct patients for misfiled chest radiographs in a PACS server by use of biological fingerprints. Radiol Phys Technol 2013; 6(2): 437–443. – reference: 22) Zagoruyko K, Komodakis N. Wide residual networks. 2017; arXiv:1605.07146v4. – reference: 2) 横岡由姫,奥田保男,坂本博,他.検像システムに求められる機能要件の実態調査.日放技学誌2018; 74(6): 580–590. – reference: 25) Selvaraju RR, Cogswell M, Das A, et al. Grad-CAM: visual explanations from deep networks via gradient-based localization. IEEE International Conference on Computer Vision (ICCV) 2017. doi: 10.1109/ICCV.2017.74 – reference: 21) Keras Documentation. Keras: The Python Deep Learning library. https://keras.io/ja/applications/#vgg16 (Accessed 28 Jan. 2021). – reference: 19) Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition. 2015; arXiv:1409.1556v6. |
SSID | ssib000936904 ssib002223925 ssj0055458 ssib005879721 ssib031740840 ssib000959831 ssib000753122 ssib008799587 ssib002484555 ssib023160873 |
Score | 2.2929468 |
Snippet | 【目的】本研究では,深層畳み込みニューラルネットワーク(deep convolutional neural network:... |
SourceID | jstage |
SourceType | Publisher |
StartPage | 23 |
SubjectTerms | artificial intelligence(AI) classification deep convolutional neural network(DCNN) radiograph accuracy X-ray image |
Title | 深層学習を用いた頭部単純X線画像における撮影精度の評価 |
URI | https://www.jstage.jst.go.jp/article/jjrt/78/1/78_780104/_article/-char/ja |
Volume | 78 |
hasFullText | 1 |
inHoldings | 1 |
isFullTextHit | |
isPrint | |
ispartofPNX | 日本放射線技術学会雑誌, 2022/01/20, Vol.78(1), pp.23-32 |
link | http://utb.summon.serialssolutions.com/2.0.0/link/0/eLvHCXMwrV3Na9RAFA-lgngRP_GbHpyTpCaZSWbibbLNUhQVoYW9LclucthDlbK9eNvWkyJiqSBeVJBSkRYqQkGx_jHrdu1_4Xtvkm1aPVgVluHx9s1v3rxJMu8lM28s62ri-C2ZtX07S_y2LVp-aqdultvwIOROlnGY5GiB7J1gelbcbPiNsfGpyqqlhW462Xr4230lfzOqwINxxV2yhxjZESgwgIbxhRJGGMo_GmMWByySLHJZ7GOpBRJ6iumAxcCvs9BjMWfKI0KyUDCtiOMyJQoirLM4ZNrBikAoTjI-U1MsVIQjoGKDKIDQBVAUkRBA1AsgHZXQuoR2i-ZVhLqCEjomXadIaQD0WGQ4mpQ2OMBRTIcs9FksUEC7VSeaoCTTPhE1pmtEiBLKob6NtA1QH-UQJqjEKzaCKjWSgbYi0hZkQHj06piAY2wNLkXqLxhIEgKYMtoTM83WScRBKZIPsAvIBVjOzDmfJWxE6owMXsqHaG5UDP7Yh6-ocRAxupM8GEFS1wI0sg6q73A8XAxje87oritA0FoSu6toJHVpNuCAjqgYLw2v4Xftv1u7MvfwILQxG5xxE8zcqJRrw_OeVydPqX55SBQzIa_4VOYV9sHZGnxtTHbb6cx3J6VyinOoD6Q_L26uJko1pWq6WBjpZvkfblBsdiBKOuJJSYs1bt1TVaeYu9UklXiGZTUjUeiHqvItHD3m0NuX9E_41d3bSobVpIIKcyruBTkQMAXAG8164KALhzIqGf_Qx0_VZgWFMbHZNYzGuF4xBXjEHYgPy7Wl5O7OnLCOF3HqhDZ9P2mNdZJT1tHbxUqc09bdna3Nwea7wfrq8Ntyf3F5uLLW7z3q917vvlnfXVobPH05_LTSGG69Gq58GSw96_c-9HuP-73n_cUnO8sbg6-bw4_bg8-r_d7Gj_cvvm-_PWPN1uOZ2rRdHM5id8ANcGyZZLnbdr2g1U5FhsdyJBlPuNPOZdZy24EI0hyCj1Yqcy5aSeAmIs3T1AcPIJUCgoSz1vjc_bnsnDUBMSWEIWGOuTOFAjw3CSTnTi6gfp55560bxhTNByYDT_MQF8WFf6l80Tq2d7tessa78wvZZQhCuukVusZ-Am0T700 |
linkProvider | Colorado Alliance of Research Libraries |
openUrl | ctx_ver=Z39.88-2004&ctx_enc=info%3Aofi%2Fenc%3AUTF-8&rfr_id=info%3Asid%2Fsummon.serialssolutions.com&rft_val_fmt=info%3Aofi%2Ffmt%3Akev%3Amtx%3Ajournal&rft.genre=article&rft.atitle=%E6%B7%B1%E5%B1%A4%E5%AD%A6%E7%BF%92%E3%82%92%E7%94%A8%E3%81%84%E3%81%9F%E9%A0%AD%E9%83%A8%E5%8D%98%E7%B4%94X%E7%B7%9A%E7%94%BB%E5%83%8F%E3%81%AB%E3%81%8A%E3%81%91%E3%82%8B%E6%92%AE%E5%BD%B1%E7%B2%BE%E5%BA%A6%E3%81%AE%E8%A9%95%E4%BE%A1&rft.jtitle=%E6%97%A5%E6%9C%AC%E6%94%BE%E5%B0%84%E7%B7%9A%E6%8A%80%E8%A1%93%E5%AD%A6%E4%BC%9A%E9%9B%91%E8%AA%8C&rft.au=%E6%9E%97%2C+%E5%89%87%E5%A4%AB&rft.au=%E5%B0%8F%E5%80%89%2C+%E6%95%8F%E8%A3%95&rft.au=%E6%B8%A1%E9%83%A8%2C+%E6%99%B4%E4%B9%8B&rft.au=%E5%85%89%E6%AD%A6%2C+%E7%A7%80%E6%82%A6&rft.date=2022-01-20&rft.pub=%E5%85%AC%E7%9B%8A%E7%A4%BE%E5%9B%A3%E6%B3%95%E4%BA%BA+%E6%97%A5%E6%9C%AC%E6%94%BE%E5%B0%84%E7%B7%9A%E6%8A%80%E8%A1%93%E5%AD%A6%E4%BC%9A&rft.issn=0369-4305&rft.eissn=1881-4883&rft.volume=78&rft.issue=1&rft.spage=23&rft.epage=32&rft_id=info:doi/10.6009%2Fjjrt.780104&rft.externalDocID=article_jjrt_78_1_78_780104_article_char_ja |
thumbnail_l | http://covers-cdn.summon.serialssolutions.com/index.aspx?isbn=/lc.gif&issn=0369-4305&client=summon |
thumbnail_m | http://covers-cdn.summon.serialssolutions.com/index.aspx?isbn=/mc.gif&issn=0369-4305&client=summon |
thumbnail_s | http://covers-cdn.summon.serialssolutions.com/index.aspx?isbn=/sc.gif&issn=0369-4305&client=summon |