Метод формирования цифровой тени процесса перемещения человека на основе объединения систем захвата движений
Ключевые слова:
цифровые тени, процесс перемещения человека, системы захвата движений, математическая модель, виртуальная реальностьАннотация
В статье рассматривается задача формирования цифровой тени процесса перемещения человека. Проведен анализ предметной области, который показал необходимость формализации процесса создания цифровых теней для имитации движений человека в виртуальном пространстве, тестировании программно-аппаратных комплексов, функционирующих на основе действий человека, а также в различных системах опорно-двигательной реабилитации. Выявлено, что среди существующих подходов к захвату движений человека нельзя выделить универсальный и стабильно работающий при различных условиях внешней среды. Разработан метод формирования цифровой тени на основе комбинирования и синхронизации данных из трех систем захвата движений (трекеры виртуальной реальности, костюм motion capture и камеры с использованием технологий компьютерного зрения). Объединение перечисленных систем позволяет получить комплексную оценку положения и состояния человека независимо от условий внешней среды (электромагнитные помехи, освещенность). Для реализации предложенного метода проведена формализация цифровой тени процесса перемещения человека, включающая описание механизмов сбора и обработки данных от различных систем захвата движений, а также этапы объединения, фильтрации и синхронизации данных. Научная новизна метода заключается в формализации процесса сбора данных о перемещении человека, объединении и синхронизации аппаратного обеспечения используемых систем захвата движений для создания цифровых теней процесса перемещения человека. Полученные теоретические результаты будут использоваться в качестве основы для программной абстракции цифровой тени в информационных системах для решения задач тестирования, имитации человека и моделирования его реакции на внешние раздражители за счет обобщения собранных массивов данных о его перемещении.
Литература
2. Царев М.В., Андреев Ю.С. Цифровые двойники в промышленности: история развития, классификация, технологии, сценарии использования // Известия высших учебных заведений. Приборостроение. 2021. Т. 64. №. 7. С. 517-531.
3. Kritzinger W. et al. Digital Twin in manufacturing: A categorical literature review and classification // IFAC-PapersOnLine. 2018. vol. 51. no. 11. pp. 1016-1022.
4. Krüger J. et al. Innovative control of assembly systems and lines // CIRP annals. 2017. vol. 66. no. 2. pp. 707-730.
5. Botín-Sanabria D.M. et al. Digital twin technology challenges and applications: A comprehensive review // Remote Sensing. 2022. vol. 14. no. 6. p. 1335.
6. Pause D., Blum M. Conceptual Design of a Digital Shadow for the Procurement of Stocked Products // IFIP International Conference on Advances in Production Management Systems (APMS). IEEE, 2018. pp. 288-295.
7. Srinivasan V. et al. Digital Shadow Model for automated Cabin assembly process. 2021.
8. Lee S. et al. Scalable muscle-actuated human simulation and control // ACM Transactions on Graphics (TOG). 2019. vol. 38. no. 4. pp. 1-13.
9. Park S. et al. Learning predict-and-simulate policies from unorganized human motion data // ACM Transactions on Graphics (TOG). 2019. vol. 38. no. 6. pp. 1-11.
10. Mourot L. et al. A Survey on Deep Learning for Skeleton‐Based Human Animation // Computer Graphics Forum. 2022. vol. 41 (1). pp. 122-157.
11. Nikolakis N. et al. The digital twin implementation for linking the virtual representation of human-based production tasks to their physical counterpart in the factory-floor // International Journal of Computer Integrated Manufacturing. 2019. vol. 32. no. 1. pp. 1-12.
12. Gagneré G., Ternova A. A CAstelet in Virtual reality for shadOw AVatar (CAVOV) // ConVRgence (VRIC) Virtual Reality International Conference Proceedings. Simon Richir (dir.). International Journal of Virtual Reality. 2020. vol. 3316.
13. Liu S., Zhang J., Zhang Y., Zhu R. A wearable motion capture device able to detect dynamic motion of human limbs // Nature communications. 2020. vol. 11. no. 1. pp. 1-12.
14. Богомолов А.В. Информационные технологии цифровой адаптационной медицины // Информатика и автоматизация. 2021. Т. 20. №. 5. С. 1154-1182.
15. Wu Y. et al. A Comprehensive Analysis of the Validity and Reliability of the Perception Neuron Studio for Upper-Body Motion Capture // Sensors. 2022. vol. 22. no. 18. pp. 6954.
16. Niehorster D.C., Li L., Lappe M. The accuracy and precision of position and orientation tracking in the HTC vive virtual reality system for scientific research // i-Perception. 2017. vol. 8. no. 3. pp. 2041669517708205.
17. Ikbal M.S., Ramadoss V., Zoppi M. Dynamic pose tracking performance evaluation of HTC Vive virtual reality system // IEEE Access, 2020. vol. 9. pp. 3798-3815.
18. Cherkasov K.V. et al. The use of open and machine vision technologies for development of gesture recognition intelligent systems // Journal of Physics: Conference Series, IOP Publishing. 2018. vol. 1015. no. 3. pp. 032166.
19. Moeslund T.B., Hilton A., Krüger V. A survey of advances in vision-based human motion capture and analysis // Computer vision and image understanding. 2006. vol. 104. no. 2-3. pp. 90-126.
20. Hellsten T. et al. The Potential of Computer Vision-Based Marker-Less Human Motion Analysis for Rehabilitation // Rehabilitation Process and Outcome. 2021. vol. 10. pp. 11795727211022330.
21. Mekruksavanich S., Hnoohom N., Jitpattanakul A. A Deep Residual-based Model on Multi-Branch Aggregation for Stress and Emotion Recognition through Biosignals // 2022 19th International Conference on Electrical Engineering / Electronics, Computer, Telecommunications and Information Technology (ECTI-CON). IEEE, 2022. pp. 1-4.
22. Zielinski E. Live Perception and Real Time Motion Prediction with Deep Neural Networks and Machine Learning // Diss. Harvard University. 2021.
23. Ohri A., Agrawal S., Chaudhary G.S. On-device Realtime Pose Estimation & Correction // International Journal of Advances in Engineering and Management (IJAEM). 2021.
24. Choo C.Z.Y., Chow J.Y., Komar J. Validation of the Perception Neuron system for full-body motion capture // PloS one. 2022. vol. 17. no. 1. pp. e0262730.
25. Obukhov A. et al. Organization of Three-Dimensional Gesture Control Based on Machine Vision and Learning Technologies // Computer Science On-line Conference. Springer, Cham, 2022. pp. 70-81.
26. Bazarevsky V. et al. Blazepose: On-device real-time body pose tracking // arXiv preprint arXiv: 2006.10204. 2020.
27. Chen Y. et al. Adversarial posenet: A structure-aware convolutional network for human pose estimation // Proceedings of the IEEE International Conference on Computer Vision, 2017. pp. 1212-1221.
Опубликован
Как цитировать
Раздел
Copyright (c) Артем Дмитриевич Обухов, Андрей Андреевич Волков, Надежда Андреевна Вехтева, Кирилл Игоревич Патутин, Александра Олеговна Назарова, Денис Леонидович Дедов
Это произведение доступно по лицензии Creative Commons «Attribution» («Атрибуция») 4.0 Всемирная.
Авторы, которые публикуются в данном журнале, соглашаются со следующими условиями: Авторы сохраняют за собой авторские права на работу и передают журналу право первой публикации вместе с работой, одновременно лицензируя ее на условиях Creative Commons Attribution License, которая позволяет другим распространять данную работу с обязательным указанием авторства данной работы и ссылкой на оригинальную публикацию в этом журнале. Авторы сохраняют право заключать отдельные, дополнительные контрактные соглашения на неэксклюзивное распространение версии работы, опубликованной этим журналом (например, разместить ее в университетском хранилище или опубликовать ее в книге), со ссылкой на оригинальную публикацию в этом журнале. Авторам разрешается размещать их работу в сети Интернет (например, в университетском хранилище или на их персональном веб-сайте) до и во время процесса рассмотрения ее данным журналом, так как это может привести к продуктивному обсуждению, а также к большему количеству ссылок на данную опубликованную работу (Смотри The Effect of Open Access).