การพัฒนาโมเดลการเรียนรู้เชิงลึกสำหรับกำหนดขอบเขตอัตโนมัติของอวัยวะข้างเคียงปกติบนภาพเอกซเรย์คอมพิวเตอร์จำลองการรักษาผู้ป่วยมะเร็งศีรษะและลำคอ

ผู้แต่ง

  • รัฐพงษ์ นันตาแพร่ สาขาฟิสิกส์การแพทย์ ภาควิชารังสีเทคนิค คณะสหเวชศาสตร์ มหาวิทยาลัยนเรศวร
  • ฐิติพงศ์ แก้วเหล็ก ภาควิชารังสีเทคนิค คณะสหเวชศาสตร์ มหาวิทยาลัยนเรศวร

คำสำคัญ:

สถาปัตยกรรมโครงข่ายยูเน็ต, สถาปัตยกรรมโครงข่ายฟีเจอร์พีระมิดเน็ตเวิร์ค (เอฟพีเอ็น), การถ่ายทอดการเรียนรู้และการปรับจูน

บทคัดย่อ

หลักการและเหตุผล ในผู้ป่วยมะเร็งศีรษะและลำคอที่รักษาด้วยการฉายรังสี การกำหนดขอบเขตอวัยวะข้างเคียงปกติมีความสำคัญต่อการวางแผนการรักษา เนื่องจากอวัยวะข้างเคียงปกตินี้อาจสูญเสียการทำงาน หากได้รับปริมาณรังสีสูงเกินขีดจำกัด โดยปกติการกำหนดขอบเขตถูกกำหนดโดยแพทย์รังสีรักษาแต่มีข้อจำกัดเช่น ใช้เวลาการกำหนดขอบเขตนาน มีความแปรปรวนภายในและระหว่างแพทย์ผู้กำหนดขอบเขต รวมถึงประสบการณ์ของแพทย์ 

วัตถุประสงค์ เพื่อพัฒนาโมเดลการเรียนรู้เชิงลึกสำหรับกำหนดขอบเขตอัตโนมัติของอวัยวะข้างเคียงปกติบนภาพเอกซเรย์คอมพิวเตอร์จำลองการรักษาผู้ป่วยมะเร็งศีรษะและลำคอ และประเมินโมเดลที่พัฒนาขึ้น 

วัสดุและวิธีการ ศึกษาโดยใช้ข้อมูลภาพเอกซเรย์คอมพิวเตอร์จำลองการรักษา และข้อมูลการกำหนดขอบเขตอวัยวะข้างเคียงปกติเป็นข้อมูลสอนโมเดล ใช้รูปแบบสถาปัตยกรรมโครงข่ายยูเน็ตและฟีเจอร์พีระมิดเน็ตเวิร์ค (เอฟพีเอ็น) ร่วมกับโมเดลแบคโบนแบบวีจีจี19 สอนโมเดลด้วยวิธีปรับจูน และวิธีการถ่ายทอดการเรียนรู้ ประเมินโมเดลด้วยค่าสัมประสิทธิ์ความเหมือน (ดีเอสซี) ค่าระยะห่าง 95 เปอร์เซ็นต์ไทล์ฮาวดรอฟ (95%เอชดี) ประเมินเวลาฝึก และเวลาทำนายมาสก์  

ผลการศึกษา โมเดล ทียูวีจีจี19 และ เอฟเอฟวีจีจี19 ให้ผลค่าดีเอสซีของแต่ละอวัยวะข้างเคียงปกติมากกว่า 0.80 ยกเว้นในต่อมน้ำลายข้างกกหูทั้งสองข้าง และไขสันหลังที่ให้ค่าดีเอสซีมากกว่า 0.72 ผลการประเมินระยะ 95%เอสดี ของแต่ละอวัยวะข้างเคียงปกติมีค่าน้อยกว่า 2 มิลลิเมตร ยกเว้นในขากรรไกรล่างและต่อมน้ำลายข้างกกหูทั้งสองข้างมีค่าน้อยกว่า 4 มิลลิเมตร เวลาเฉลี่ยในการทำนายมาสก์ เท่ากับ 1.286 และ 1.534 วินาทีต่อภาพ สำหรับโมเดลทียูวีจีจี19 และเอฟเอฟวีจีจี19 ตามลำดับ 

ข้อสรุป โมเดลที่พัฒนาขึ้นสามารถให้ผลการทำนายมาสก์ที่ดี ประเมินด้วยค่าดีเอสซี 95%เอชดี ได้ใกล้เคียงกับการศึกษาอื่นก่อนหน้า และสามารถทำนายมาสก์ได้อย่างรวดเร็ว  

เอกสารอ้างอิง

สาขารังสีรักษาและมะเร็งวิทยา ฝ่ายรังสีวิทยา โรงพยาบาลจุฬาลงกรณ์. สถิติผู้ป่วยที่มารับบริการที่สาขารังสีรักษาและมะเร็งวิทยา 20 อันดับโรค (ราย) ปี 2562. 2562 [cited 27 ตุลาคม 2563]. Available from: https://www.chulacancer.net/service-statistics-inner.php?id=699.

Merlotti A, Alterio D, Vigna-Taglianti R, Muraglia A, Lastrucci L, Manzo R, et al. Technical guidelines for head and neck cancer IMRT on behalf of the Italian association of radiation oncology - head and neck working group. Radiat Oncol 2014;9:264.

Dirix P, Nuyts S. Evidence-based organ-sparing radiotherapy in head and neck cancer. Lancet Oncol 2010;11:85-91.

Thariat J, Ramus L, Maingon P, Odin G, Gregoire V, Darcourt V, et al. Dentalmaps: automatic dental delineation for radiotherapy planning in head-and-neck cancer. Int J Radiat Oncol Biol Phys 2012;82:1858-65.

Mayo C, Martel MK, Marks LB, Flickinger J, Nam J, Kirkpatrick J. Radiation dose–volume effects of optic nerves and chiasm. Int J Radiat Oncol Biol Phys 2010;76:S28-35.

Kirkpatrick JP, van der Kogel AJ, Schultheiss TE. Radiation dose-volume effects in the spinal cord. Int J Radiat Oncol Biol Phys 2010;76:S42-9.

van der Veen J, Willems S, Deschuymer S, Robben D, Crijns W, Maes F, et al. Benefits of deep learning for delineation of organs at risk in head and neck cancer. Radiother Oncol 2019;138:68-74.

Wu X, Udupa JK, Tong Y, Odhner D, Pednekar GV, Simone CB, 2nd, et al. Auto-contouring via automatic anatomy recognition of organs at risk in head and neck cancer on CT images. Proc SPIE Int Soc Opt Eng 2018;10576.

Ibragimov B, Xing L. Segmentation of organs-at-risks in head and neck CT images using convolutional neural networks. Med Phys 2017;44:547-57.

Zhu W, Huang Y, Zeng L, Chen X, Liu Y, Qian Z, et al. AnatomyNet: Deep learning for fast and fully automated whole‐volume segmentation of head and neck anatomy. Med Phys 2018;46.

Ronneberger O, Fischer P, Brox T. U-Net: Convolutional networks for biomedical image segmentation. 2015;9351:234-41.

Lin T, Dollár P, Girshick R, He K, Hariharan B, Belongie S, editors. Feature Pyramid Networks for object detection. 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR); 2017 21-26 July 2017.

Yakubovskiy P. Segmentation Models 2018 [cited 2020 Oct 27]. Available from: https://segmentation-models.readthedocs.io/en/latest/.

Turgutlu K. dicom-contour 2018 [cited 2020 Oct 27]. Available from: https://github.com/KeremTurgutlu/dicom-contour.

Head-Neck-PET-CT [Internet]. Available from: https://wiki.cancerimagingarchive.net/display/Public/Head-Neck-PET-CT.

TCGA-HNSC [Internet]. [cited Oct 27]. Available from: https://wiki.cancerimagingarchive.net/display/Public/TCGA-HNSC.

IMAGENET Large Scale Visual Recognition Challenge 2012 (ILSVRC2012) [cited 2020 Oct 29]. Available from: http://image-net.org/challenges/LSVRC/2012/index#data.

Transfer learning & fine-tuning 2020 [updated 2020 May 12; cited 2020 Oct 29]. Available from: https://keras.io/guides/transfer_learning/.

Ren X, Xiang L, Nie D, Shao Y, Zhang H, Shen D, et al. Interleaved 3D-CNNs for joint segmentation of small-volume structures in head and neck CT images. Med Phys 2018;45:2063-75.

Chen A, Dawant BM. Multi-atlas approach for the automatic segmentation of multiple structures in head and neck CT images. The MIDAS 2016.

ดาวน์โหลด

เผยแพร่แล้ว

2021-04-30

รูปแบบการอ้างอิง

1.
นันตาแพร่ ร, แก้วเหล็ก ฐ. การพัฒนาโมเดลการเรียนรู้เชิงลึกสำหรับกำหนดขอบเขตอัตโนมัติของอวัยวะข้างเคียงปกติบนภาพเอกซเรย์คอมพิวเตอร์จำลองการรักษาผู้ป่วยมะเร็งศีรษะและลำคอ. J Thai Assn of Radiat Oncol [อินเทอร์เน็ต]. 30 เมษายน 2021 [อ้างถึง 2 มกราคม 2026];27(1):R12-R28. available at: https://he01.tci-thaijo.org/index.php/jtaro/article/view/248991

ฉบับ

ประเภทบทความ

นิพนธ์ต้นฉบับ