Визуальная одометрия с коррекцией траектории на основе применения фильтра Калмана
Ключевые слова:
визуальная одометрия, фильтр Калмана, монокулярное зрение, оценка положения, робототехникаАннотация
В настоящей работе предложен метод коррекции траектории камеры в задаче монокулярной визуальной одометрии на основе фильтра Калмана. Рассмотрен подход, в котором неоднозначность масштаба разрешается не через восстановление трёхмерной структуры сцены, а через последовательное использование относительных смещений между текущим и несколькими предыдущими положениями камеры. Такой подход снижает зависимость от долговременного отслеживания одних и тех же ключевых точек и делает метод применимым в условиях ограниченного параллакса, повторяющихся текстур и частичных окклюзий. Подобное представление повышает чувствительность метода к шумам. Для компенсации этого недостатка применяется фильтр Калмана, который предотвращает накопление ошибок при последовательных оценках и обеспечивает корректность работы даже при отсутствии сведений о движении камеры, а также позволяет учитывать качество измерений и их достоверность. В рамках работы представлены модель состояния и модель наблюдений, позволяющие уточнять положение камеры, используя только данные последовательных наблюдений. Состояние формируется в виде скользящего окна из текущего и нескольких предыдущих положений камеры, а наблюдения строятся из направлений относительных смещений, оцениваемых по паре или набору кадров, без восстановления трёхмерной структуры сцены. В отличие от распространённых фильтров Калмана с ограничениями на множественные состояния системы (MSCKF), которые обычно интегрируют данные от инерциальных датчиков, предложенный метод использует исключительно информацию, извлекаемую из последовательности кадров. Эффективность метода подтверждена на синтетических данных в различных сценариях движения.
Литература
2. Yuan S., Zhang J., Lin Y., Yang L. Hybrid self-supervised monocular visual odometry system based on spatio-temporal features // Electronic Research Archive. 2024. vol. 32. no. 5. pp. 3543–3568.
3. Scaramuzza D., Fraundorfer F. Visual odometry [tutorial] // IEEE Robotics & Automation Magazine. 2011. vol. 18. no. 4. p. 80–92.
4. Ou Y., Cai Y., Sun Y., Qin T. Autonomous navigation by mobile robot with sensor fusion based on deep reinforcement learning // Sensors. 2024. vol. 24. no. 12.
5. Лебедев А.О., Васильев В.В., Паулиш А.Г. Алгоритм управления полетом БПЛА вдоль железной дороги с помощью технического зрения // Компьютерная оптика. 2025. Т. 49. № 2. С. 320–326. DOI: 10.18287/2412-6179-CO-1532.
6. Belkin I.V., Abramenko A.A., Bezuglyi V.D., Yudin D.A. Localization of mobile robot in prior 3D LiDAR maps using stereo image sequence // Computer Optics. 2024. vol. 48. no. 3. pp. 406–417.
7. Горбачев В.А., Калугин В.Ф. Разработка алгоритма многообъектного трекинга с необучаемыми признаками сопоставления объектов // Компьютерная оптика. 2023. Т. 47. № 6. С. 1002–1010. DOI: 10.18287/2412-6179-CO-1275.
8. Ляхов П.А., Оразаев А.Р. Анализ видеоданных беспилотного летательного аппарата на основе индекса структурного сходства // Компьютерная оптика. 2025. Т. 49. № 4. С. 624–633. DOI: 10.18287/2412-6179-CO-1569.
9. Jiang S., Jiang C., Jiang W. Efficient structure from motion for large-scale UAV images: A review and a comparison of SfM tools // ISPRS Journal of Photogrammetry and Remote Sensing. 2020. vol. 167. pp. 230–251.
10. Le V.H. Visual SLAM and Visual Odometry Based on RGB-D Images Using Deep Learning: A Survey // Journal of Robotics and Control (JRC). 2024. vol. 5. no. 4. pp. 1050–1079.
11. Yan F., Li Z., Zhou Z. Robust and efficient edge-based visual odometry // Computational Visual Media. 2022. vol. 8. no. 3. pp. 467–481.
12. Weber S., Demmel N., Chan T.C., Cremers D. Power bundle adjustment for large-scale 3D reconstruction // Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). 2023. pp. 281–289.
13. Triggs B., McLauchlan P., Hartley R., Fitzgibbon A. Bundle adjustment – A modern synthesis // Vision Algorithms: Theory and Practice. Lecture Notes in Computer Science. 2000. vol. 1883. pp. 298–372. DOI: 10.1007/3-540-44480-7_21.
14. Сойфер В.А., Фурсов В.А., Харитонов С.И. Калмановская фильтрация одного класса изображений динамических объектов // Информатика и автоматизация. 2024. Т. 23. № 4. С. 953–968. DOI: 10.15622/ia.23.4.1.
15. Tavares Jr A.J.A., Oliveira N.M.F. A Novel Approach for Kalman Filter Tuning for Direct and Indirect Inertial Navigation System/Global Navigation Satellite System Integration // Sensors. 2024. vol. 24. no. 22. DOI: 10.3390/s24227331.
16. Yuan Y., Li F., Chen J., Wang Y., Liu K. An improved Kalman filter algorithm for tightly GNSS/INS integrated navigation system // Mathematical Biosciences and Engineering. 2024. vol. 21. pp. 963–983.
17. Wang Z., Pang B., Song Y., Yuan X., Xu Q., Li Y. Robust visual-inertial odometry based on a Kalman filter and factor graph // IEEE Transactions on Intelligent Transportation Systems. 2023. vol. 24. no. 7. pp. 7048–7060.
18. Nguyen K.D., Tran D.T., Nguyen D.T., Inoue K., Lee J.H., Nguyen A.Q. Learning Visual-Inertial Odometry with Robocentric Iterated Extended Kalman Filter // IEEE Access. 2024. vol. 12. pp. 109943–109956.
19. Lee D., Jung M., Yang W., Kim A. Lidar odometry survey: recent advancements and remaining challenges // Intelligent Service Robotics. 2024. vol. 17. no. 2. pp. 95–118.
20. Xue C., Huang Y., Zhao C., Li X., Mihaylova L., Li Y., Chambers J.A. A Gaussian-generalized-inverse-Gaussian joint-distribution-based adaptive MSCKF for visual-inertial odometry navigation // IEEE Transactions on Aerospace and Electronic Systems. 2022. vol. 59. no. 3. pp. 2307–2328.
21. Fischler M.A., Bolles R.C. Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography // Communications of the ACM. 1981. vol. 24. no. 6. pp. 381–395.
Опубликован
Как цитировать
Раздел
Copyright (c) Виктор Александрович Сойфер, Егор Вячеславович Гошин

Это произведение доступно по лицензии Creative Commons «Attribution» («Атрибуция») 4.0 Всемирная.
Авторы, которые публикуются в данном журнале, соглашаются со следующими условиями: Авторы сохраняют за собой авторские права на работу и передают журналу право первой публикации вместе с работой, одновременно лицензируя ее на условиях Creative Commons Attribution License, которая позволяет другим распространять данную работу с обязательным указанием авторства данной работы и ссылкой на оригинальную публикацию в этом журнале. Авторы сохраняют право заключать отдельные, дополнительные контрактные соглашения на неэксклюзивное распространение версии работы, опубликованной этим журналом (например, разместить ее в университетском хранилище или опубликовать ее в книге), со ссылкой на оригинальную публикацию в этом журнале. Авторам разрешается размещать их работу в сети Интернет (например, в университетском хранилище или на их персональном веб-сайте) до и во время процесса рассмотрения ее данным журналом, так как это может привести к продуктивному обсуждению, а также к большему количеству ссылок на данную опубликованную работу (Смотри The Effect of Open Access).