Интеллектуальная нейросетевая машина с функциями мышления
Ключевые слова:
нейросетевая машина, интеллектуальность, функции мышления, умные нейроны, трансформация сигналовАннотация
В последние годы существенно вырос интерес к искусственному интеллекту на основе нейросетевых подходов. Получен ряд значимых научных результатов, которые нашли широкое применение на практике. Большое внимание привлекли генеративно – состязательные нейросетевые модели, нейросетевые трансформеры и другие решения. Достигнут очевидный прогресс в нейросетевом распознавании и генерации образов, обработке текстов и речи, прогнозировании событий, управлении трудно формализуемыми процессами. Однако пока не удалось наделить нейросетевые машины мышлением. Все получаемые с использованием нейросетевых машин результаты можно отнести к решениям на основе различных видов связывания сигналов без полноценного управления процессами их обработки. Типичными представителями таких машин выступают ChatGPT. Возможности по интеллектуальному оперированию различными сигналами в известных нейросетевых машинах очень ограничены. Среди основных причин таких ограничений следует выделить несовершенство используемых базовых принципов нейросетевой обработки информации. Свойства нейронов длительное время рассматривались упрощенно. Обуславливалось это, как пробелами в области биологических исследованиях, так и отсутствием возможностей построения больших нейронных сетей на сложных моделях нейронов. В последние годы ситуация изменилась. Появились новые способы реализации больших нейронных сетей. Также установлено, что даже отдельные нейроны могут обладать обширной внутренней памятью и реализовывать различные функции. Однако до сих пор многие механизмы функционирования нейронов и их взаимодействия остаются не раскрытыми. Мало исследованы вопросы управляемого ассоциативного обращения к внутренней памяти нейронов. Эти недостатки существенно сдерживает создание мыслящих нейросетевых машин. Объектом исследования в статье выступает процесс интеллектуальной нейросетевой обработки информации. Предмет исследования: принципы, модели и методы такой обработки. Преследуется цель расширения функциональных возможностей нейросетевых машин по решению трудно формализуемых творческих задач за счет разработки новых принципов, моделей и методов интеллектуальной обработки информации. В интересах достижения этой цели уточняются принципы функционирования интеллектуальных нейросетевых машин, предлагаются новые модели и методы нейросетевой обработки информации. Раскрывается новая модель импульсного нейрона, как базового элемента таких машин. Искусственный мозг нейросетевых машин рекомендуется формировать в виде многослойных нейронных сетей, наделенных логическими структурами, с различными по параметрам нейронами. Предлагается новый метод многоуровневой интеллектуальной обработки информации в нейросетевых машинах на основе умных импульсных нейронов. Поясняются механизмы мышления нейросетевых машин, лежащие в их основе функции интеллектуального оперирования образами и понятиями в нейросетевой памяти. Приводятся результаты моделирования, подтверждающие справедливость предложенных решений.
Литература
2. Мышление – Большой энциклопедический словарь. URL: https://gufo.me/dict/bes/МЫШЛЕНИЕ (дата доступа 05.04.2024).
3. Velankar M.R., Mahalle P.N., Shinde G.R. Machine Thinking: New Paradigm Shift. In: Cognitive Computing for Machine Thinking. Innovations in Sustainable Technologies and Computing. 2024. pp. 43–53.
4. Malsburg C. Toward understanding the neural code of the brain. Biological Cybernetics. 2021. vol. 115. no. 5. pp. 439–449.
5. Yamakawa H. The whole brain architecture approach: accelerating the development of artificial general intelligence by referring to the brain. Neural Networks. 2021. vol. 144. pp. 478–495.
6. Haykin S. Neural Networks and Learning Machines, third ed., Prentice Hall, New York. 2008. URL: http://dai.fmph.uniba.sk/courses/NN/haykin.neural-networks.3ed.2009.pdf (дата доступа 24.04.2024).
7. Kotseruba I., Tsotsos J. 40 years of cognitive architectures: core cognitive abilities and practical applications. Artificial Intelligence Review. 2020. vol. 53. no. 1. pp. 17–94.
8. Dormehl L. Thinking machine: The Quest for Artificial Intelligence – and Where It's Taking Us Next. Penguin, 2017. 209 p.
9. Takano S. Thinking Machines. Machine Learning and Its Hardware Implementation. Academic Press, 2021. 306 p.
10. Hawkins J., Blakeslee S. On intelligence. Brown Walker, 2006. 174 p.
11. Osipov V., Osipova M. Space-time signal binding in recurrent neural networks with controlled elements. Neurocomputing. 2018. vol. 308. pp. 194–204.
12. Hawkins J., Ahmad S. Hierarchical temporal memory including HTM cortical learning algorithms. Hosted at Numenta.org. 2011. 68 p.
13. Spoerer C.J., McClure, P., Kriegeskorte, N., 2017. Recurrent convolutional neural networks: a better model of biological object recognition. Frontiers in psychology. 2017. vol. 8. DOI: 10.3389/fpsyg.2017.01551.
14. Patrick M., Adekoya A., Mighty A., Edward B. Capsule networks – a survey. Journal of King Saud University – Computer and Information Sciences. 2022. vol. 34(1). pp. 1295–1310.
15. Yang G., Ding F. Associative memory optimized method on deep neural networks for image classification. Information Sciences. 2020. vol. 533. pp. 108–119.
16. Yang J., Zhang L., Chen C., Li Y., Li R., Wang G., Jiang S., Zeng Z. A hierarchical deep convolutional neural network and gated recurrent unit framework for structural damage detection. Information Sciences. 2020. vol. 540. pp. 117–130.
17. Ma T., Lv S., Huang L., Hu S. HiAM: A hierarchical attention based model for knowledge graph multi-hop reasoning. Neural Networks. 2021. vol. 143. pp. 261–270.
18. Grossberg S. Adaptive resonance theory: how a brain learns to consciously attend, learn, and recognize a changing world. Neural Networks. 2013. vol. 37. pp. 1–47.
19. Khowaja S., Lee S.L. Hybryd and hierarchical fusion networks: a deep cross-modal learning architecture for action recognition. Neural Computing and Applications. 2020. vol. 32. no. 14. pp. 10423–10434.
20. Saha S., Gan Z., Cheng L., Gao J., Kafka O., Xie X., Li H., Tajdari M., Kim H., Liu W. Hierarchical deep learning neural network (HiDeNN): an artificial intelligence (AI) framework for computational science and engineering. Computer Methods in Applied Mechanics and Engineering. 2021. vol. 373. DOI: 10.1016/j.cma.2020.113452.
21. Yang M., Chen L., Lyu Z., Liu J., Shen Y., Wu Q. Hierarchical fusion of common sense knowledge and classifier decisions for answer selection in community question answering. Neural Networks. 2020. vol. 132. pp. 53–65.
22. Wolfrum P., Wolff C., Lucke J., Malsburg C. A recurrent dynamic model for correspondence-based face recognition. Journal of Vision. 2008, vol. 8(7). no. 34. pp. 1–18. DOI: 10.1167/8.7.34.
23. Han Y., Huang G., Song S., Yang L., Wang H., Wang Y. Dynamic neural networks: a survey. arXiv:2102.04906v4. 2021. pp. 1–20.
24. Osipov V., Nikiforov V., Zhukova N., Miloserdov D. Urban traffic flows forecasting by recurrent neural networks with spiral structures of layers. Neural Computing and Applications. 2020. vol. 32. no. 18. pp. 14885–14897.
25. Osipov V., Kuleshov S., Zaytseva A., Levonevskiy D., Miloserdov D. Neural network forecasting of news feeds. Expert systems with applications. 2021. vol. 169. DOI: 10.1016/j.eswa.2020.114521.
26. Osipov V., Kuleshov S., Miloserdov D., Zaytseva A., Aksenov A. Recurrent Neural Networks with Continuous Learning in Problems of News Streams Multifunctional Processing. Informatics and Automation. 2022. vol. 21. no. 6. pp. 1145–1168.
27. Osipov V., Osipova M. Method and device of intellectual processing of information in neural network, Patent RU2413304. 2011.
28. Osipov V. Method for intelligent multi-level information processing in neural network, Patent RU2737227. 2020.
29. He J., Yang H., He L., Zhao L. Neural networks based on vectorized neurons. Neurocomputing. 2021. vol. 465. pp. 63–70.
30. Deng C., Litany O., Duan Y., Poulenard A., Tagliasacchi A., Guibas L. Vector neurons: a general framework for SO(3)-Equivariant networks. arXiv:2104.12229v1. 2021. pp. 1–12.
31. Kryzhanovsky B., Litinskii L., Mikaelian A. Vector-Neuron Model of Associative Memory. IEEE International Joint Conference on Neural Networks. 2004. vol. 2. pp. 909–914.
32. Tuszynski J.A., Friesen D.E., Freedman H., Sbitnev V.I., Kim H., Santelices L., Kalra A., Patel S., Shankar K., Chua L.O. Microtubules as Sub-Cellular Memristors. Scientific Reports. 2020. vol. 10(1). DOI: 10.1038/s41598-020-58820-y.
33. Bicanski A., Burgess N. Neural vector coding in spatial cognition. Nature Reviews Neuroscience. 2020. vol. 21. pp. 453–470.
34. Rvachev M. V. Neuron as a reward-modulated combinatorial switch and a model of learning behavior. Neural Networks. 2013. vol. 46. pp. 62–74.
35. Осипов В.Ю. Векторные свойства и память нейронов. Сборник тезисов XXIV съезда физиологического общества им. И.П. Павлова. 2023. С. 586–587.
36. Sardi S., Vardi R., Sheinin A., Goldental A., Kanter I. New types of experiments reveal that a neuron functions as multiple independent threshold units. Scientific Reports. 2017. vol. 7(1). DOI: 10.1038/s41598-017-18363-1.
Опубликован
Как цитировать
Раздел
Copyright (c) Василий Юрьевич Осипов
Это произведение доступно по лицензии Creative Commons «Attribution» («Атрибуция») 4.0 Всемирная.
Авторы, которые публикуются в данном журнале, соглашаются со следующими условиями: Авторы сохраняют за собой авторские права на работу и передают журналу право первой публикации вместе с работой, одновременно лицензируя ее на условиях Creative Commons Attribution License, которая позволяет другим распространять данную работу с обязательным указанием авторства данной работы и ссылкой на оригинальную публикацию в этом журнале. Авторы сохраняют право заключать отдельные, дополнительные контрактные соглашения на неэксклюзивное распространение версии работы, опубликованной этим журналом (например, разместить ее в университетском хранилище или опубликовать ее в книге), со ссылкой на оригинальную публикацию в этом журнале. Авторам разрешается размещать их работу в сети Интернет (например, в университетском хранилище или на их персональном веб-сайте) до и во время процесса рассмотрения ее данным журналом, так как это может привести к продуктивному обсуждению, а также к большему количеству ссылок на данную опубликованную работу (Смотри The Effect of Open Access).