Модель процесса удаленного анализа защищенности информационных систем и методы повышения его результативности
Ключевые слова:
анализ защищенности, тестирование на проникновение, компьютерная атака, марковские процессы, принятие решений, частичная наблюдаемостьАннотация
Рассмотрены подходы к проведению анализа защищенности информационных систем. Предложена модель процесса анализа защищенности информационных систем на основе теории принятия решений. Рассмотрены существующие методы решения проблемы марковских процессов принятия решений в условиях частично наблюдаемой среды.Литература
1. Кравчук А.В., Еремеев М.А. Анализ методов распознавания вредоносных программ // Вопросы защиты информации». 2014. №3. С. 44–51.
2. Кравчук А.В., Еремеев М.А., Потерпеев Г.Ю. Модель и методы дистанционного контроля мобильных персональных устройств // Материалы 22-й НТК «Методы и технические средства обеспечения безопасности информации». СПб. 2013. С. 24–26.
3. Кравчук А.В., Еремеев М.А. Подход к моделированию компьютерных атак // Материалы 23-й НТК «Методы и технические средства обеспечения безопасности информации». СПб. 2014. С. 69–71.
4. Калинин В.Н., Резников Б.А., Варакин Е.И. Теория систем и оптимального управления. В 2 ч. Ч.1. Основные понятия, математические модели и методы анализа систем // Л.:ВИКИ имени А.Ф. Можайского. 1979. 319 с.
5. Макаров И.М., Виноградская Т.М., Рубчинский А.А. Теория выбора и принятия решений: Учебное пособие // М.: Наука. 1982. 328 с.
6. Astrom K.J. Optimal control of Markov processes with incomplete state information // Journal of mathematical analysis and applications. 1965. № 10. pp. 174-205.
7. Стратонович Р. Л. Условные марковские процессы и их применение к теории оптимального управления // М.: Изд-во МГУ. 1966. 319 с.
8. Jazwinski A.H. Stochastic processes and filtering theory // New York: Academic Press. 1970. 391 p.
9. Ross S., Pineau J. Online Planning Algorithms for POMDPs // Journal of Artificial Intelligence Research. 2008. №32. pp. 663–704.
10. Hauskrecht M. Value-function approximations for partially observable Markov decision processes // Journal of Artificial Intelligence Research. 2000. №13. pp. 33–94.
11. Pineau J., Gordon G., Thrun S. Point-based value iteration: an anytime algorithm for POMDPs // Proceedings of the International joint conference on artificial intelligence (IJCAI-03). 2003. pp. 1025–1032.
12. Braziunas D., Boutilier C. Stochastic local search for POMDP controllers // Proceedings of the 19-th National conference on artificial intelligence (AAAI-04). 2004. pp. 690–696.
13. Smith T., Simmons R. Point-based POMDP algorithms: improved analysis and implementation // Proceedings of the 21th conference on uncertainty in artificial intelligence (UAI-05). 2005. pp. 542–547.
14. Satia J.K., Lave R.E. Markovian decision processes with probabilistic observation of states // Management Science. 1973. vol. 20(1). pp. 1–13.
15. Barto A.G., Bradtke S.J., Singhe S.P. Learning to act using real-time dynamic programming // Artificial Intelligence. 1995. №72 (1). pp. 81–138.
16. Washington R. BI-POMDP: bounded, incremental partially observable Markov model planning. // Proceedings of the 4th European conference on planning. 1997. pp. 440–451.
17. McAllester D., Singh S. Approximate planning for factored POMDPs using belief state simplification // Proceedings of the 15th annual conference on uncertainty in artificial intelligence (UAI-99). 1999. pp. 409–416.
18. Shani G., Brafman R., Shimony S. Adaptation for changing stochastic environments through online POMDP policy learning // Proceedings of the workshop on reinforcement learning in non-stationary environments, ECML. 2005. pp. 61–70.
19. Koenig S. Agent-centered search // AI Magazine. 2001. vol. 22(4). pp. 109–131.
20. Approximate POMDP planning software. URL: http://bigbird.comp.nus.edu.sg/pmwiki/farm/appl/ (дата обращения 18.01.2015).
21. Lusena C., Goldsmith J., Mundhenk M. Nonapproximability results for partially observable Markov decision processes // Journal of artificial intelligence research. 2001. vol. 14. pp. 83–103.
2. Кравчук А.В., Еремеев М.А., Потерпеев Г.Ю. Модель и методы дистанционного контроля мобильных персональных устройств // Материалы 22-й НТК «Методы и технические средства обеспечения безопасности информации». СПб. 2013. С. 24–26.
3. Кравчук А.В., Еремеев М.А. Подход к моделированию компьютерных атак // Материалы 23-й НТК «Методы и технические средства обеспечения безопасности информации». СПб. 2014. С. 69–71.
4. Калинин В.Н., Резников Б.А., Варакин Е.И. Теория систем и оптимального управления. В 2 ч. Ч.1. Основные понятия, математические модели и методы анализа систем // Л.:ВИКИ имени А.Ф. Можайского. 1979. 319 с.
5. Макаров И.М., Виноградская Т.М., Рубчинский А.А. Теория выбора и принятия решений: Учебное пособие // М.: Наука. 1982. 328 с.
6. Astrom K.J. Optimal control of Markov processes with incomplete state information // Journal of mathematical analysis and applications. 1965. № 10. pp. 174-205.
7. Стратонович Р. Л. Условные марковские процессы и их применение к теории оптимального управления // М.: Изд-во МГУ. 1966. 319 с.
8. Jazwinski A.H. Stochastic processes and filtering theory // New York: Academic Press. 1970. 391 p.
9. Ross S., Pineau J. Online Planning Algorithms for POMDPs // Journal of Artificial Intelligence Research. 2008. №32. pp. 663–704.
10. Hauskrecht M. Value-function approximations for partially observable Markov decision processes // Journal of Artificial Intelligence Research. 2000. №13. pp. 33–94.
11. Pineau J., Gordon G., Thrun S. Point-based value iteration: an anytime algorithm for POMDPs // Proceedings of the International joint conference on artificial intelligence (IJCAI-03). 2003. pp. 1025–1032.
12. Braziunas D., Boutilier C. Stochastic local search for POMDP controllers // Proceedings of the 19-th National conference on artificial intelligence (AAAI-04). 2004. pp. 690–696.
13. Smith T., Simmons R. Point-based POMDP algorithms: improved analysis and implementation // Proceedings of the 21th conference on uncertainty in artificial intelligence (UAI-05). 2005. pp. 542–547.
14. Satia J.K., Lave R.E. Markovian decision processes with probabilistic observation of states // Management Science. 1973. vol. 20(1). pp. 1–13.
15. Barto A.G., Bradtke S.J., Singhe S.P. Learning to act using real-time dynamic programming // Artificial Intelligence. 1995. №72 (1). pp. 81–138.
16. Washington R. BI-POMDP: bounded, incremental partially observable Markov model planning. // Proceedings of the 4th European conference on planning. 1997. pp. 440–451.
17. McAllester D., Singh S. Approximate planning for factored POMDPs using belief state simplification // Proceedings of the 15th annual conference on uncertainty in artificial intelligence (UAI-99). 1999. pp. 409–416.
18. Shani G., Brafman R., Shimony S. Adaptation for changing stochastic environments through online POMDP policy learning // Proceedings of the workshop on reinforcement learning in non-stationary environments, ECML. 2005. pp. 61–70.
19. Koenig S. Agent-centered search // AI Magazine. 2001. vol. 22(4). pp. 109–131.
20. Approximate POMDP planning software. URL: http://bigbird.comp.nus.edu.sg/pmwiki/farm/appl/ (дата обращения 18.01.2015).
21. Lusena C., Goldsmith J., Mundhenk M. Nonapproximability results for partially observable Markov decision processes // Journal of artificial intelligence research. 2001. vol. 14. pp. 83–103.
Опубликован
2015-03-10
Как цитировать
Кравчук, А. В. (2015). Модель процесса удаленного анализа защищенности информационных систем и методы повышения его результативности. Труды СПИИРАН, 1(38), 75-93. https://doi.org/10.15622/sp.38.5
Раздел
Статьи
Авторы, которые публикуются в данном журнале, соглашаются со следующими условиями:
Авторы сохраняют за собой авторские права на работу и передают журналу право первой публикации вместе с работой, одновременно лицензируя ее на условиях Creative Commons Attribution License, которая позволяет другим распространять данную работу с обязательным указанием авторства данной работы и ссылкой на оригинальную публикацию в этом журнале.
Авторы сохраняют право заключать отдельные, дополнительные контрактные соглашения на неэксклюзивное распространение версии работы, опубликованной этим журналом (например, разместить ее в университетском хранилище или опубликовать ее в книге), со ссылкой на оригинальную публикацию в этом журнале.
Авторам разрешается размещать их работу в сети Интернет (например, в университетском хранилище или на их персональном веб-сайте) до и во время процесса рассмотрения ее данным журналом, так как это может привести к продуктивному обсуждению, а также к большему количеству ссылок на данную опубликованную работу (Смотри The Effect of Open Access).