BC/NW 2024№ 1 (41):4.3
Гибридная оптимизированная модель обучения на основе нейронной сети с глубокой сверткой для обнаружения объекта
Бровков А.В.,. Орлова М.А., Рыбинцев В.О.
В последние годы методы обнаружения объектов на основе глубокого обучения, разработанные на основе компьютерного зрения, привлекли интерес общественности. Распознавание объектов - одна из самых фундаментальных и сложных задач компьютерного зрения [1]. Она направлена на обнаружение экземпляров объектов на реальных изображениях из огромного количества установленных категорий. Метод глубокого обучения для распознавания объектов, стремительно набирают популярность как способ интерпретации видеоизображений, полученных с помощью различных датчиков. В связи с огромным разнообразием приложений в различных системах компьютерного зрения, таких как обнаружение активности и событий, поиск изображений на основе контента, понимание сцен и других задач. Исследователи потратили десятилетия на разработку автономных систем обнаружения объектов с использованием специальных методов классификации, основанные на глубоком обучении.
Первыми шагами в исследовании являются операции удаления шумов и нормализации, выполняемые с помощью фильтров Гаусса и методов нормализации контраста соответственно. Затем предварительно обработанные изображения подвергаются сегментации на основе энтропийного алгоритма, который разделяет значимые области изображения для выделения отдельных объектов. Задача классификации решается с помощью предложенной гибридной оптимизированной плотной сверточной нейронной сети (ГОПСНС). Основная цель данной программной платформы - точное распознавание отдельных признаков из собранных входных кадров. Эффективность предложенной системы оценивается путем сравнения с существующими методологиями машинного обучения и глубокого обучения.
Литература
1. Качалин В.С., Панов Ю.Н., Попов Н.-Л.Э. Сравнительный анализ различных систем оптического распознавания символов при работе с текстом, написанным с помощью кириллического алфавита // Современные наукоемкие технологии. – 2022. – № 8. – С. 65-70;