ประสิทธิภาพการจับการเคลื่อนไหวแบบปัญญาประดิษฐ์สำหรับท่าทางการต่อสู้

ผู้แต่ง

  • สุวิช ถิระโคตร ภาควิชาสื่อนฤมิต คณะวิทยาการสารสนเทศ มหาวิทยาลัยมหาสารคาม
  • วิศรุต ผลาปรีย์ บริษัท แอนิเมทเต็ด สตอรี่บอร์ด (ประเทศไทย) จำกัด
  • ธนดล ลาสระคู ภาควิชาสื่อนฤมิต คณะวิทยาการสารสนเทศ มหาวิทยาลัยมหาสารคาม
  • นวพล ฝ่ายไชย ภาควิชาสื่อนฤมิต คณะวิทยาการสารสนเทศ มหาวิทยาลัยมหาสารคาม
  • ภูชิตากานต์ พิกุลทอง ภาควิชาสื่อนฤมิต คณะวิทยาการสารสนเทศ มหาวิทยาลัยมหาสารคาม
  • ภัทระ ประสุนิงค์ ภาควิชาสื่อนฤมิต คณะวิทยาการสารสนเทศ มหาวิทยาลัยมหาสารคาม
  • ทิวากร ทองดีเขียว ภาควิชาสื่อนฤมิต คณะวิทยาการสารสนเทศ มหาวิทยาลัยมหาสารคาม
  • ยศพันธ์ สมเดช ภาควิชาสื่อนฤมิต คณะวิทยาการสารสนเทศ มหาวิทยาลัยมหาสารคาม

คำสำคัญ:

การจับการเคลื่อนไหวด้วยปัญญาประดิษฐ์, ท่าทางการต่อสู้, ความแม่นยำของแอนิเมชัน, เทคโนโลยีแอนิเมชัน

บทคัดย่อ

การใช้แพลตฟอร์มการจับการเคลื่อนไหวแบบปัญญาประดิษฐ์ (AI Mocap) ต้องนำเข้าคลิปวิดีโอต้นฉบับซึ่งถูกถ่ายทำด้วยมุมกล้องต่าง ๆ ปัญหาที่เกิดขึ้น คือ ข้อมูลการเคลื่อนไหวที่ได้มาอาจความผิดพลาด การวิจัยครั้งนี้มีวัตถุประสงค์เพื่อศึกษาประสิทธิภาพของการจับการเคลื่อนไหวท่าต่อสู้ด้วยเทคโนโลยี AI Mocap ออกแบบการวิจัยเชิงทดลองแบบ 3x3 Factorials ประกอบด้วยตัวแปรต้น คือ มุมกล้องของการถ่ายทำคลิปวิดีโอต้นฉบับ 3 มุม (ด้านหน้า มุมเฉียง และด้านข้าง) และระดับความยากของท่าต่อสู้ 3 ระดับ (ง่าย ปานกลาง และยาก) ท่าการต่อสู้ทั้งหมด 9 ท่า ตัวแปรตาม คือ ประสิทธิภาพของการจับการเคลื่อนไหวโดย AI Mocap เครื่องมือที่ใช้รวบรวมข้อมูลประกอบด้วย คลิปแอนิเมชันที่สร้างจากข้อมูลการเคลื่อนไหวที่จับได้ จำนวน 27 คลิป และแบบประเมินประสิทธิภาพโดยผู้เชี่ยวชาญ 3 ด้าน คือ ความแม่นยำ ความลื่นไหล และความสมจริงของการเคลื่อนไหว ผลการวิจัย พบว่า (1) ประสิทธิภาพการจับการเคลื่อนไหวด้วยเทคโนโลยี AI Mocap กับท่าทางการต่อสู้ที่มีระดับยากง่ายแตกต่างกัน มีประสิทธิภาพอยู่ในระดับดีมาก ไม่แตกต่างกันอย่างมีนัยสำคัญทางสถิติ (p>.05) และท่าทางที่ง่ายมีประสิทธิภาพด้านความลื่นไหลของการเคลื่อนไหวสูงสุด และ (2) มุมกล้องของวิดีโอต้นฉบับมีผลต่อประสิทธิภาพของการจับการเคลื่อนไหวอย่างมีนัยสำคัญทางสถิติ โดยมุมกล้องด้านหน้าให้ผลลัพธ์ดีที่สุดในด้านความแม่นยำและความสมจริง ในขณะที่มุมกล้องด้านข้างให้ค่าความลื่นไหลสูงสุด ขณะที่มุมเฉียงให้ประสิทธิภาพต่ำกว่าทุกด้านอย่างมีนัยสำคัญ ขณะที่มุมเฉียงให้ค่าต่ำที่สุด โดยพบความแตกต่างอย่างมีนัยสำคัญทางสถิติ (p<.05) ทั้งด้านความแม่นยำ ความลื่นไหล และความสมจริงของแอนิเมชัน ผลการวิจัยนี้ชี้ให้เห็นว่า มุมกล้องเป็นปัจจัยสำคัญที่มีผลต่อความแม่นยำของ AI Mocap มากกว่าระดับความยากของท่าทาง ผลการวิจัยครั้งนี้จะเป็นแนวทางให้นักแอนิเมเตอร์กำหนดวิธีการถ่ายทำคลิปต้นฉบับและได้ข้อมูลการเคลื่อนไหวจาก AI Mocap ที่ดีสำหรับการนำไปใช้ต่อไป

เอกสารอ้างอิง

Baumgartner, T. (2024). Deriving sport scientific insights from broadcast footage: Advanced computer vision for human motion analysis [Doctoral dissertation, German Sport University]. https://bit.ly/4tgczbN

Güler, R., Neverova, N., & Kokkinos, I. (2020). DensePose: Dense human pose estimation in the wild. International Journal of Computer Vision, 128(2), 173–192. https://doi.org/10.1007/s11263-019-01202-8

Habibie, I., Holden, D., Schwarz, J., Jahrmann, M., & Theobalt, C. (2021). Learning realistic human motion from videos using adversarial networks. ACM Transactions on Graphics, 40(4), 1–13. https://doi.org/10.1145/3450626.3459794

Ishac, K., & Eager, D. (2021). Evaluating martial arts punching kinematics using a vision and inertial sensing system. Sensors, 21(6), 1948. https://doi.org/10.3390/s21061948

Ling, H., Zhang, C., Xu, H., & Liu, C. K. (2023). Physics-aware motion retargeting with whole-body coordination. IEEE Transactions on Visualization and Computer Graphics, 29(4), 2456–2470. https://doi.org/10.1109/TVCG.2022.3189021

Li, Q., Sun, T., & Zhang, M. (2025). Deep learning-driven animation: Enhancing real-time character motion synthesis. IEEE Access, 13, 181487-181506. https://doi.org/10.1109/ACCESS.2025.3623285

Luo, W., Chen, X., & Liu, Y. (2023). Motion transformer: Seamless transition of human poses in animation. Computer Animation and Virtual Worlds, 34(3–4), e2053. https://doi.org/10.1002/cav.2053

Ma, H., & Chen, G. (2022). Research trends and frontiers in exercise for movement disorders: A bibliometric analysis of global research from 2010 to 2021. Frontiers in Public Health, 10, 9491729. https://doi.org/10.3389/fpubh.2022.9491729

Ma, J., & Wang, Y. (2020). Comparison of a Marker-based optical motion capture system and a markerless vision-based system for evaluating human movement. Scientific Reports, 10(1), 17351. https://doi.org/10.1038/s41598-020-74567-9

Mathis, A., Schneider, S., Lauer, J., & Mathis, M. W. (2020). A Primer on Motion Capture with Deep Learning: Principles, Pitfalls, and Perspectives. Neuron, 108(1), 44–65. https://doi.org/10.1016/j.neuron.2020.09.017

Menache, A. (2011). Understanding motion capture for computer animation. Elsevier Science

Move Ai Ltd. (2025). Industry leading markerless motion capture. https://move.ai/

Noiumkar, S., & Tirakoat, S. (2013). Use of optical motion capture in sports science: A case study of golf swing. In N. Mai, M. Zamani, N. A. Ahmad@Salleh & W. C. Onn (Eds.), Proceedings - 2013 International Conference on Informatics and Creative Multimedia, ICICM 2013 (pp. 310–313). IEEE.

Pavllo, D., Feichtenhofer, C., Grangier, D., & Auli, M. (2019). 3D human pose estimation in video with temporal convolutions and semi-supervised training. In L. Davis, P. Torr & S. Zhu (Eds.), Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) (pp. 7753–7762). IEEE.

Phalapree, W., & Tirakoat, S. (2024). Acceptance of artificial intelligence motion capture technology in animation production [In Thai]. Journal of Applied Information Technology, 10(2), 89–101. https://ph02.tci-thaijo.org/index.php/project-journal/article/view/253829

Potisarn, N. (2023). Applying electromagnetic motion capture equipment to create industrial 3D animations [In Thai]. Journal of Engineering and Industrial Technology, Kalasin University, 1(1), 1–9. https://doi.org/10.14456/jeit.2023.27

Robertson, D. G. E., Caldwell, G. E., Hamill, J., Kamen, G., & Whittlesey, S. N. (2013). Research methods in biomechanics (2nd ed.). Human Kinetics.

Starke, S., Zhao, Y., Zinno, F., & Komura, T. 2021. Neural animation layering for synthesizing martial arts movements. ACM Transactions on Graphics, 40(4), 1–16. https://doi.org/10.1145/3450626.3459881

Wongbat, S., Uypatchawong, S., & Chanamarn, N. (2024). The development of knowledge transfer application of ancient boxing dance in Sakon Nakhon Province [In Thai]. EAU Heritage Journal Science and Technology, 18(2), 43–58. https://he01.tci-thaijo.org/index.php/EAUHJSci/article/view/267368

Wu, J., Liu, H., Zhang, Y., & Chen, T. (2021). Efficient human pose estimation for action recognition using monocular videos. IEEE Transactions on Multimedia, 23, 2190–2203. https://doi.org/10.1109/TMM.2021.3051163

Zhang, X., Wang, L., Chen, M., & Li, Z. (2023). Viewpoint-robust 3D human pose estimation via depth-guided graph learning. IEEE Transactions on Image Processing, 32, 2941–2954. https://doi.org/10.1109/TIP.2023.3248271

ดาวน์โหลด

เผยแพร่แล้ว

2026-04-21

รูปแบบการอ้างอิง

ถิระโคตร ส. ., ผลาปรีย์ ว. ., ลาสระคู ธ. ., ฝ่ายไชย น. ., พิกุลทอง ภ. ., ประสุนิงค์ ภ. ., ทองดีเขียว ท. ., & สมเดช ย. . (2026). ประสิทธิภาพการจับการเคลื่อนไหวแบบปัญญาประดิษฐ์สำหรับท่าทางการต่อสู้. วารสารวิชาการมหาวิทยาลัยอีสเทิร์นเอเชีย ฉบับวิทยาศาสตร์และเทคโนโลยี (Online), 20(1), 83–95. สืบค้น จาก https://he01.tci-thaijo.org/index.php/EAUHJSci/article/view/281792

ฉบับ

ประเภทบทความ

บทความวิจัย