Весь выпуск
Искусственный интеллект, инженерия данных и знаний
-
В статье представлен случайный лес выживаемости на основе модели внимания (Att-RSF). Первая идея, лежащая в основе леса, состоит в том, чтобы адаптировать ядерную регрессию Надарая-Уотсона к случайному лесу выживаемости таким образом, чтобы веса регрессии или ядра можно было рассматривать как обучаемые веса внимания при важном условии, что предсказания случайного леса выживаемости представлены в виде функций времени, например, функции выживания или кумулятивной функции риска. Каждый обучаемый вес, присвоенный дереву и примеру из обучающей или тестовой выборки, определяется двумя факторами: способностью соответствующего дерева предсказывать и особенностью примера, попадающего в лист дерева. Вторая идея Att-RSF состоит в том, чтобы применить модель загрязнения Хьюбера для представления весов внимания как линейной функции обучаемых параметров внимания. C-индекс Харрелла (индекс конкордации) как показатель качества предсказания случайного леса выживаемости используется при формировании функции потерь для обучения весов внимания. Использование C-индекса вместе с моделью загрязнения приводит к стандартной задаче квадратичной оптимизации для вычисления весов, которая имеет целый ряд простых алгоритмов решения. Численные эксперименты с реальными наборами данных, содержащими данные о выживаемости, иллюстрируют предлагаемую модель Att-RSF.
-
Задача обработки медицинской информации в настоящее время в нашей стране и за рубежом решается посредством разнородных медицинских информационных систем, преимущественно локального и регионального уровней. Постоянно возрастающий объем и сложность накапливаемой информации наряду с необходимостью обеспечения прозрачности и преемственности обработки медицинских данных (в частности, к примеру, по бронхолегочным заболеваниям) в различных организациях требует разработки нового подхода к интеграции их разнородных источников. При этом важным требованием к решению поставленной задачи является возможность веб-ориентированной реализации, что позволит сделать соответствующие приложения доступными широкому кругу пользователей без высоких требований к их аппаратно-программным возможностям. В работе рассматривается подход к интеграции разнородных источников медицинской информации, который основан на принципах построения микросервисных веб-архитектур. Каждый модуль обработки данных может быть использован независимо от других программных модулей, предоставляя универсальную точку входа и результирующий набор данных в соответствии с принятой схемой данных. Последовательное выполнение этапов обработки предполагает передачу управления соответствующим программным модулям в фоновом режиме по принципу Cron. В схеме декларируется два вида схем данных – локальная (от медицинских информационных систем) и глобальная (для единой системы хранения), между которыми предусмотрены соответствующие параметры отображения по принципу построения XSLT-таблиц. Важной отличительной особенностью предлагаемого подхода представляется модернизация системы хранения медицинской информации, заключающейся в создании зеркальных копий основного сервера с периодической репликацией соответствующей информации. При этом взаимодействие между клиентами и серверами хранилищ данных осуществляется по типу систем доставки контента с созданием сеанса соединения между конечными точками по принципу ближайшего расстояния между ними, рассчитанного по формуле гаверсинусов. Проведенные вычислительные эксперименты над тестовыми данными по бронхолегочным заболеваниям показали эффективность предложенного подхода как для загрузки данных, так и для их получения отдельными пользователями и программными системами. В целом показатель реактивности соответствующим веб-ориентированных приложений был улучшен на 40% при стабильном соединении.
-
Современные модели искусственного интеллекта развиваются в парадигме чёрного ящика, когда значима только информация на входе и выходе системы, тогда как внутренние представления интерпретации не имеют. Такие модели не обладают качествами объяснимости и прозрачности, необходимыми во многих задачах. Статья направлена на решение данной проблемы путём нахождения семантических факторов Ч. Осгуда в базовой модели машинного обученния word2vec, представляющей слова естественного языка в виде 300-мерных неинтерпретируемых векторов. Искомые факторы определяются на основе восьми семантических прототипов, составленных из отдельных слов. Ось оценки в пространстве word2vec находится как разность между положительным и отрицательным прототипами. Оси силы и активности находятся на основе шести процессно-семантических прототипов (восприятие, анализ, планирование, действие, прогресс, оценка), представляющих фазы обобщённого кругового процесса в данной плоскости. Направления всех трёх осей в пространстве word2vec найдены в простой аналитической форме, не требующей дополнительного обучения. Как и ожидается для независимых семантических факторов, полученные направления близки к попарной ортогональности. Значения семантических факторов для любого объекта word2vec находятся с помощью простой проективной операции на найденные направления. В соответствии с требованиями к объяснимому ИИ, представленный результат открывает возможность для интерпретации содержимого алгоритмов типа ``чёрный ящик'' в естественных эмоционально-смысловых категориях. В обратную сторону, разработанный подход позволяет использовать модели машинного обучения в качестве источника данных для когнитивно-поведенческого моделирования.
-
В статье решается задача верификации разливов нефти на водных поверхностях рек, морей и океанов по оптическим аэрофотоснимкам с использованием методов глубокого обучения. Особенностью данной задачи является наличие визуально похожих на разливы нефти областей на водных поверхностях, вызванных цветением водорослей, веществ, не приносящих экологический ущерб (например, пальмовое масло), бликов при съемке или природных явлений (так называемые «двойники»). Многие исследования в данной области основаны на анализе изображений, полученных от радаров с синтезированной апертурой (Synthetic Aperture Radar (SAR) images), которые не обеспечивают точной классификации и сегментации. Последующая верификация способствует сокращению экологического и материального ущерба, а мониторинг размеров площади нефтяного пятна используется для принятия дальнейших решений по устранению последствий. Предлагается новый подход к верификации оптических снимков как задачи бинарной классификации на основе сиамской сети, когда фрагмент исходного изображения многократно сравнивается с репрезентативными примерами из класса нефтяных пятен на водных поверхностях. Основой сиамской сети служит облегченная сеть VGG16. При превышении порогового значения выходной функции принимается решение о наличии разлива нефти. Для обучения сети был собран и размечен собственный набор данных из открытых интернет-ресурсов. Существенной проблемой является несбалансированность выборки данных по классам, что потребовало применения методов аугментации, основанных не только на геометрических и цветовых манипуляциях, но и на основе генеративной состязательной сети (Generative Adversarial Network, GAN). Эксперименты показали, что точность классификации разливов нефти и «двойников» на тестовой выборке достигает значений 0,91 и 0,834 соответственно. Далее решается дополнительная задача семантической сегментации нефтяного пятна с применением сверточных нейронных сетей (СНС) типа кодировщик-декодировщик. Для сегментации исследовались три архитектуры глубоких сетей, а именно U-Net, SegNet и Poly-YOLOv3. Лучшие результаты показала сеть Poly-YOLOv3, достигнув точности 0,97 при среднем времени обработки снимка 385 с веб-сервисом Google Colab. Также была спроектирована база данных для хранения исходных и верифицированных изображений с проблемными областями.
-
Алгоритмы глубокого обучения сыграли важную роль в решении многих комплексных задач, за счет автоматического изучения правил (алгоритмов) на основе выборочных данных, которые затем сопоставляют входные данные с соответствующими выходными данными. Цель работы: выполнить классификацию земных покровов (LULC) спутниковых снимков Московской области на основе обучающих данных и сравнить точность классификации, полученной с применением ряда моделей глубокого обучения. Методы: точность, достигаемая при классификации земных покровов с использованием алгоритмов глубокого обучения и данных космической съёмки, зависит как от конкретной модели глубокого обучения, так и от используемой обучающей выборки. Мы использовали наиболее современные модели глубокого обучения и обучения с подкреплением вкупе с релевантным набором обучающих данных. Для тонкой корректировки параметров моделей и подготовки обучающего набора данных применялись разливные методы, в том числе аугментация данных. Результаты: Применены четыре модели глубокого обучения на основе архитектур Residual Network (ResNet) и Visual Geometry Group (VGG) на основе обучения с подкреплением: ResNet50, ResNet152, VGG16 и VGG19. Последующее до-обучение моделей выполнялось с использованием обучающих данных, собранных спутником ДЗЗ Sentinel-2 на территории Московской области. На основе оценки результатов, архитектура ResNet50 дала наиболее высокую точность классификации земных покровов на территории выбранного региона. Практическая значимость: авторы разработали алгоритм обучения четырёх моделей глубокого обучения с последующей классификацией фрагментов входного космического снимка с присвоением одного из 10 классов (однолетние культуры, лесной покров, травянистая растительность, автодороги и шоссе, промышленная застройка, пастбища, многолетние культуры, жилая застройка, реки и озера).
Цифровые информационно-телекоммуникационные технологии
-
Увеличивающийся поток фото и видеоинформации, передаваемый по каналам инфокоммуникационных систем и комплексов, стимулирует к поиску эффективных алгоритмов сжатия, позволяющих существенно снизить объем передаваемого трафика, при сохранении его качества. В общем случае, в основе алгоритмов сжатия лежат операции преобразования коррелированных значений яркостей пикселов матрицы изображения в их некоррелированные параметры, с последующим кодированием полученных коэффициентов преобразования. Поскольку основные известные декоррелирующие преобразования являются квазиоптимальными, то задача поиска преобразований, учитывающих изменения статистических характеристик сжимаемых видеоданных, все еще является актуальной. Указанные обстоятельства определили направление проведенного исследования, связанного с анализом декоррелирующих свойств формируемых вейвлет-коэффициентов, получаемых в результате кратномасштабного преобразования изображений. Основным результатом проведенного исследования явилось установления факта того, что вейвлет-коэффициенты кратномасштабного преобразования имеют структуру вложенных матриц, определенных как субматрицы. Поэтому, корреляционный анализ вейвлет-коэффициентов преобразования, целесообразно проводить раздельно для элементов каждой субматрицы на каждом уровне декомпозиции (разложения). Основным теоретическим результатом явилось доказательство того, что ядром каждого последующего уровня кратномасштабного преобразования является матрица, состоящая из вейвлет-коэффициентов предшествующего уровня декомпозиции. Именно данный факт и позволяет сделать вывод о зависимости соответствующих элементов соседних уровней. Кроме того, установлено, что между вейвлет-коэффициентами внутри локальной области изображения размером 8×8 пикселей существует линейная зависимость. При этом максимальная корреляция элементами субматриц непосредственно определяется формой их представления, и наблюдается между соседними элементами находящимися, соответственно в строке, столбце или по диагонали, что подтверждается характером рассеивания. Полученные результаты подтверждены на проведенном анализе выборок, более чем из двухсот типовых изображений. При этом обосновано, что между низкочастотными вейвлет-коэффициентами кратномасштабного преобразования верхнего уровня разложения сохраняются примерно одинаковые зависимости равномерно по всем направлениям. Практическая значимость исследования определяется тем, что все полученные в ходе его проведения результаты подтверждают наличие характерных зависимостей между вейвлет-коэффициентами преобразования на различных уровнях разложения изображений. Данный факт указывает на возможность достижения более высоких значений коэффициентов сжатия видеоданных в процессе их кодирования. Дальнейшие исследования авторы связывают с разработкой математической модели адаптивного арифметического кодирования видеоданных и изображений, учитывающей корреляционные свойства вейвлет-коэффициентов кратномасштабного преобразования.
-
В статье рассмотрена разработка математического и алгоритмического обеспечения для восстановления отсчетов на проблемных участках дискретной последовательности непрерывного сигнала. Цель работы состояла в том, чтобы обеспечить восстановление утраченных отсчетов или участков отсчетов с непостоянной искаженной временной сеткой при осуществлении дискретизации сигнала с равномерным шагом и одновременно обеспечить снижение вычислительной сложности цифровых алгоритмов восстановления. Решение поставленной задачи осуществлено на основе метода локальной аппроксимации. Спецификой применения этого метода стало использование двух подпоследовательностей отсчетов, расположенных симметрично по отношению к восстанавливаемому участку последовательности. В качестве аппроксимирующей модели используется ряд Фурье по ортогональной системе тригонометрических функций. Оптимальное решение задачи аппроксимации основано на критерии минимума квадратичной погрешности. Для данного вида погрешности получены математические соотношения. Они позволяют оценить ее значение в зависимости от порядка модели и числа отсчетов подпоследовательностей, по которым осуществляется процедура восстановления. Особенность полученных в настоящей работе математических соотношений для восстановления сигнала заключается в том, что они не требуют предварительного вычисления коэффициентов ряда Фурье. Они обеспечивают непосредственно вычисление значений восстанавливаемых отсчетов. При этом в случае выбора четного числа отсчетов в подпоследовательностях, используемых для восстановления, не требуется выполнять операции умножения. Всё это обеспечило снижение вычислительной сложности разработанного алгоритма для восстановления сигнала. Экспериментальные исследования алгоритма осуществлялись на основе имитационного моделирования с использованием модели сигнала, представляющей собой аддитивную сумму гармонических компонент со случайной начальной фазой. Численные эксперименты показали, что разработанный алгоритм обеспечивает результат восстановления отсчетов сигнала с достаточно низкой погрешностью. Алгоритм реализован в виде программного модуля. Работа модуля осуществляется на основе асинхронного управления процессом восстановления отсчетов. Он может быть применен в составе метрологически значимого программного обеспечения систем цифровой обработки сигналов.
-
В работе рассмотрена задача анализа безопасного сеанса на физическом уровне беспроводной системы связи в условиях многолучевого канала распространения сигнала и наличия канала утечки информации. Для обобщения эффектов распространения была выбрана модель канала Beaulieu-Xie с затенениями. Для описания безопасности процесса передачи информации использовалась такая метрика, как вероятность прерывания безопасного сеанса связи. В рамках исследования было получено аналитическое выражение вероятности прерывания связи. Проведён анализ её поведения в зависимости от характеристик канала и системы связи: среднего значения отношения сигнал-шум в основном канале и канале утечки, эффективного значение показателя потерь на пути распространения сигнала, относительного расстояния между законным приемником и прослушивающим приёмником и пороговой пропускной способности, нормированной на пропускную способность гладкого гауссова канала. Рассмотрены совокупности параметров, которые покрывают важные сценарии функционирования беспроводных систем связи. К ним относятся как глубокие замирания (отвечающие гиперрэлеевскому сценарию), так и малые замирания. Учитываются условия наличия существенной по величине компоненты прямой видимости и значительного количества многопутевых кластеров, затенения доминантной компоненты и многопутевость волн, а также всевозможные промежуточные варианты. Обнаружено, что величина энергетического потенциала, необходимого для гарантированной безопасной связи с заданной скоростью, определяется в первую очередь мощностью многопутевых компонент, а также наличие неснижаемой вероятности прерывания безопасного сеанса связи с ростом для каналов с сильным общим затенением компонент сигнала, что с практической точки зрения важно учитывать при предъявлении требований к величинам отношения сигнал/шум и скорости передачи данных в прямом канале, обеспечивающим желаемую степень безопасности беспроводного сеанса связи.