การประยุกต์ใช้ระบบนำวิถีด้วยคอมพิวเตอร์วิทัศน์สำหรับอากาศยานไร้คนขับโจมตีขนาดเล็ก

ผู้แต่ง

  • เสาวคนธ์ ภุมมาลี สำนักบัณฑิตศึกษา โรงเรียนนายเรืออากาศนวมินทกษัตริยาธิราช
  • ณัทกร พราหมอ้น ภาควิศวกรรมอากาศยาน โรงเรียนนายเรืออากาศนวมินทกษัตริยาธิราช
  • ประสาทพร วงษ์คำช้าง สำนักบัณฑิตศึกษา โรงเรียนนายเรืออากาศนวมินทกษัตริยาธิราช
  • เจนวิทย์ คำพูล สำนักบัณฑิตศึกษา โรงเรียนนายเรืออากาศนวมินทกษัตริยาธิราช

คำสำคัญ:

การประมวลผลภาพ , ระบบนำวิถี, ระบบนำทาง, อากาศยานไร้คนขับโจมตี

บทคัดย่อ

การวิจัยนี้มีวัตถุประสงค์เพื่อพัฒนาระบบนำวิถีด้วยภาพสำหรับควบคุมอากาศไร้คนขับโจมตีขนาดเล็กในการโจมตีเป้าหมายภาคพื้นดิน โดยการประยุกต์ใช้ระบบปัญญาประดิษฐ์ด้านคอมพิวเตอร์วิทัศน์ในการคำนวณหาตำแหน่งของเป้าหมายแล้วควบคุมการเคลื่อนที่ของอากาศยานไร้คนขับแบบมัลติโรเตอร์ให้เคลื่อนที่ไปโจมตีเป้าหมายได้ จากการทดสอบการบิน จำนวน 6 เที่ยวบิน ที่มีทิศทางการเห็นภาพที่แตกต่างกัน และบินที่ความสูง 80 เมตรแล้วลดระดับความสูงเพื่อเข้าโจมตีเป้าหมายเป็นแผ่นสีวงกลมขนาด 3 เมตร x 3 เมตร ที่อยู่นิ่งภาคพื้นดิน การเปรียบเทียบประสิทธิภาพของ YOLO v5 และทำการปรับค่าที่เหมาะสมพบว่า YOLO v5 ที่กำหนดค่าความแม่นยำ Confidence threshold เท่ากับ 0.001 มีประสิทธิภาพดีที่สุด โดยมีค่า Precision Recall F1 score mAP50 และ mAP50-95 ดีกว่าแบบจำลองอื่น ๆ คือ ค่า Precision นั้นมีค่าน้อยที่สุดเท่ากับ 0.794 และค่ามากที่สุดเท่ากับ 0.999 ในขณะที่ค่า Recall มีค่าน้อยที่สุดเท่ากับ 0.993 และค่ามากที่สุดเท่ากับ 1 และค่า F1 Score มีค่าน้อยที่สุดเท่ากับ 0.877 และมีค่ามากที่สุดเท่ากับ 0.999 ค่า mAP50 มีค่าน้อยที่สุดเท่ากับ 0.948 และมีค่ามากที่สุดเท่ากับ 0.995 ค่า mAP50-95 มีค่าน้อยที่สุดเท่ากับ 0.807 และมีค่ามากที่สุดเท่ากับ 0.935

References

Altug, E., Ostrowski, J. P., & Taylor, C. J. (2005). Control of a quadrotor helicopter using dual camera visual feedback. The International Journal of Robotics Research, 24(5), 329-341. https://d1.amobbs.com/bbs_upload782111/files_29/ourdev_559047.pdf

Arafat, M. Y., Alam, M. M., & Moh, S. (2023). Vision-based navigation techniques for unmanned aerial vehicles: Review and challenges. Drones, 7(2), 89. https://doi.org/10.3390/drones7020089

Beard, R. W., & McLain, T. W. (2012). Small unmanned aircraft: Theory and practice. New Jersey: Princeton University Press

Bochkovskiy, A., Wang, C., & Liao, H. M. (2020). YOLOv4: Optimal speed and accuracy of object detection. ArXiv, 2004, 10934. https://doi.org/10.48550/arXiv.2004.10934

Chuyi, L., Lulu, L., Hongliang, J., Kaiheng, W., Yifei, G., Liang, L., Zaidan, K., Qingyuan, L., Meng, C., Weiqiang, N., Yiduo, L., Bo, Z., Yufei, L., Linyuan, Z., Xiaoming, X., Xiangxiang, C., Xiaoming, W., & Xiaolin, W. (2022). YOLOv6: A single-stage object detection framework for industrial applications. ArXiv, 2209, 02976. https://doi.org/10.48550/arXiv.2209.02976

Conte, G., & Doherty, P. (2008). An integrated UAV navigation system based on aerial image matching. 2008 IEEE Aerospace Conference (pp. 1-10). USA: IEEE

Heikkila, J., & Silvén, O. (1997). A four-step camera calibration procedure with implicit image correction. In Proceedings of 1997 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (pp. 1106-1112). Washington DC: IEEE

Hosseinpoor, H. R., Samadzadegan, F., & DadrasJavan, F. (2017). Pricise target geolocation and tricking based on UAV video imagenary.The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, XLI-B6, 2016 XXIII ISPRS Congress, 12–19 July 2016 (pp. 243–249). Prague, Czech Republic: ISPRS. https://doi.org/10.5194/isprs-archives-XLI-B6-243-2016

Jocher, G., Chaurasia, A., Qiu, J., & YOLO by Ultralytics. (2023). Ultralytics YOLOv8. Retrieved from https://github.com/ultralytics/ultralytics

Koo, T. J., Hoffmann, F., Sinopoli, B., & Sastry, S. (1998). Hybrid control of an autonomous helicopter. Proceedings of IFAC Workshop on Motion Control, Grenoble (pp. 1-6). France: IFAC. https://bit.ly/4fltZgb

Kunertova, D. (2023). The war in Ukraine shows the game-changing effect of drones depends on the game. Bulletin of the Atomic Scientists, 79(2), 95–102. https://doi.org/10.1080/00963402.2023.2178180

Liu, X., Yang, Y., Ma, C., Li, J., & Zhang, S. (2020). Real-time visual tracking of moving targets using a low-cost unmanned aerial vehicle with a 3-Axis Stabilized Gimbal System. Applied Sciences, 10(15), 5064. https://doi.org/10.3390/app10155064

Lu, Y., Xue, Z., Xia, G. S., & Zhang, L. (2018). A survey on vision-based UAV navigation. Geo-Spatial Information Science, 21(1), 21–32. https://doi.org/10.1080/10095020.2017.1420509

Luo, P., & Pei, H. (2007). An Autonomous Helicopter with Vision Based Navigation. IEEE International Conference on Control and Automation (pp. 2595-2599). Guangzhou, China: IEEE

Nepal, U., & Eslamiat, H. (2022). Comparing YOLOv3, YOLOv4 and YOLOv5 for autonomous landing spot detection in faulty UAVs. Sensors (Basel, Switzerland), 22(2), 464. https://doi.org/10.3390/s22020464

Redmon, J., Divvala, S., Girshick, R., & Farhadi, A. (2016). You only look once: Unified, real-time object detection. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 779-788). Las USA: IEEE

Redmon, J., & Farhadi, A. (2018). Yolov3: An incremental improvement. ArXiv, 1804, 02767.

Voskuijl, M. (2022). Performance analysis and design of loitering munitions: A comprehensive technical survey of recent developments. Defence Technology, 18(3), 325-343. https://doi.org/10.1016/j.dt.2021.08.010

Wang, C. Y., Bochkovskiy, A., & Liao, H. Y. M. (2022). YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors. ArXiv, 2207, 02696. https://doi.org/10.48550/arXiv.2207.02696

Wang, X., Li, W., Guo, W., & Cao, K. (2021). SPB-YOLO: An efficient real-time detector for unmanned aerial vehicle images. Proceedings of the 2021 international conference on artificial intelligence in information and communication (ICAIIC) (pp. 99-104). Jeju Island: IEEE.

Zhang, J., Wan, G., Jiang, M., Lu, G., Tao, X., & Huang, Z. (2023). Small object detection in UAV image based on improved YOLOv5. Systems Science & Control Engineering, 11(1), 2247082. https://doi.org/10.1080/21642583.2023.2247082

Downloads

เผยแพร่แล้ว

2024-12-12