Вступ у конволюційні нейронні мережі

Конволюційні нейронні мережі, також відомі як CNN або ConvNet, підпадають під категорію штучних нейронних мереж, що використовуються для обробки та візуалізації зображень. Штучний інтелект використовує глибоке навчання для виконання завдання. Нейронні мережі - це або апаратне, або програмне забезпечення, запрограмоване як нейрони в мозку людини. Традиційна нейронна мережа приймає лише зображення зменшеної роздільної здатності як входи. CNN вирішує цю проблему, влаштовуючи свої нейрони як лобову частку мозку людини. Попередня обробка на CNN дуже менша порівняно з іншими алгоритмами. Звиток, лінійна математична операція, використовується на CNN. Він використовує згортку замість загального множення матриць в одному зі своїх шарів.

Шари в конволюційних нейронних мережах

Нижче наведені шари звивистих нейронних мереж:

1. Шар введення зображення

Вхідний шар дає входи (переважно зображення) і проводиться нормалізація. Тут слід зазначити розмір введення.

2. Звитий шар

У цьому шарі відбувається згортання, і зображення поділяється на персептрони (алгоритм), створюються локальні поля, що призводить до стиснення перцептронів для відображення карт у вигляді матриці розміром mx n.

3. Нелінійний шар

Тут картки функцій приймаються як вхідні, а карти активації даються як вихідні за допомогою функції активації. Функція активації, як правило, реалізується як сигмоподібна або гіперболічна дотична функції.

4. Шар випрямлення

Найважливіший компонент CNN, цей шар виконує тренування швидше, не знижуючи точності. Він виконує елементарну операцію абсолютного значення на картах активації.

5. Випрямлені лінійні одиниці (ReLU)

ReLU поєднує нелінійні та випрямні шари на CNN. Це робить порогову операцію, коли негативні значення перетворюються на нуль. Однак ReLU не змінює розмір вводу.

6. Шар об'єднання

Шар об'єднання також називається шаром зменшення розміру, оскільки це відповідає за зменшення розміру карт активації. Фільтр і крок однакової довжини застосовуються до вхідного обсягу. Менш значущі дані ігноруються цим шаром, отже розпізнавання зображень проводиться в меншому представленні. Цей шар зменшує надмірну обробку. Оскільки кількість параметрів зменшується за допомогою шару об'єднання, вартість також зменшується. Вхід поділяється на області прямокутного об'єднання та обчислюється або максимальний, або середній, який, відповідно, повертає максимум чи середній показник. Макс Пулінг - популярний.

7. Шар випадання

Цей шар випадковим чином встановлює вхідний шар до нуля з заданою ймовірністю. Більше результатів у різних елементах падає після цієї операції. Цей шар також сприяє зменшенню надмірної обробки. Це робить мережу зайвою. Навчання в цьому шарі не відбувається. Ця операція проводиться лише під час тренувань.

8. Повністю з'єднаний шар

Карти активації, які є результатом попередніх шарів, перетворюються на розподіл ймовірностей класу на цьому шарі. FC-шар помножує вхід на вагову матрицю і додає вектор зміщення.

9. Вихідний шар

За шаром FC слідують шари softmax та класифікація. Функція softmax застосовується до вводу. Класифікаційний рівень обчислює функцію перехресної ентропії та втрат для задач класифікації.

10. Регресійний шар

Половина середня квадратична помилка обчислюється в цьому шарі. Цей шар повинен слідувати за шаром FC.

Архітектура конволюційної нейронної мережі

Нижче наведено архітектуру згорткових нейронних мереж:

1. LeNet

LeNet був представлений для оптичного розпізнавання символів у документах у 1998 році. Він невеликий і ідеально підходить для роботи в процесорі. LeNet невеликий і його легко зрозуміти. Це побудовано за трьома основними ідеями: місцеві сприйнятливі поля, загальні ваги та просторове підсистема. Мережа показує найкраще внутрішнє представлення необроблених зображень. У нього є три згортаються шари, два об'єднувальні шари, один повністю пов'язаний шар і один вихідний шар. За одним згортковим шаром одразу слідував шар об'єднання. Всі шари пояснені вище.

2. AlexNet

AlexNet був розроблений у 2012 році. Ця архітектура популяризувала CNN у комп’ютерному зорі. Він має п'ять згорнутих і три повністю пов'язаних шари, де ReLU застосовується після кожного шару. Він використовує переваги обох шарів, оскільки згортковий шар має мало параметрів і тривале обчислення, і це повністю протилежне для повністю з'єднаного шару. Перевищення вмісту було значно зменшено завдяки збільшенню даних та виходу з нього. AlexNet був глибшим, більші і згорткові шари не були розділені шаром об'єднання порівняно з LeNet.

3. ZF Net

ZF Net була розроблена в 2013 році, яка була модифікованою версією AlexNet. Розмір середнього звивистого шару був розширений, а крок і розмір фільтра першого згорткового шару були зменшені. Він просто визнав недоліки AlexNet і розробив чудовий. Усі шари такі ж, як і AlexNet. ZF Net налаштовує параметри шару, такі як розмір фільтра або крок AlexNet, що дозволяє зменшити показник помилок.

4. GoogLeNet

Ця архітектура була розроблена в 2014 році. Основним шаром є основна концепція. Цей шар охоплює більшу площу, але зазначає невелику інформацію про зображення. Для підвищення продуктивності в GoogLeNet використовуються дев'ять початкових модулів. Оскільки початковий шар схильний до надмірного розміщення, тут використовується більше нелінійностей та менша кількість параметрів. Максимальний шар об'єднання використовується для об'єднання виходу попереднього шару. Ця архітектура має 22 шари, а параметри на 12 разів менше. Це точніше, ніж AlexNet, теж швидше. Коефіцієнт помилок порівняно нижчий. Середній шар об'єднання використовується в кінці замість повністю пов'язаного шару. Обчислення скорочуються, збільшуються глибина і ширина. Багато модулів створення підключено, щоб заглибитись в архітектуру. GoogLeNet перевершив усі інші архітектури, розроблені до 2014 року. Для цієї архітектури доступно кілька наступних версій.

5. VGG Net

Це було покращенням порівняно з ZFNet, а згодом і над AlexNet. Він має 16 шарів з 3 × 3 згортковими шарами, 2 × 2 об'єднувальні шари та повністю з'єднані шари. Ця архітектура приймає найпростішу мережеву структуру, але вона має більшість параметрів.

6. ResNet

Залишкова мережа архітектура була розроблена в 2015 році. Вона використовує пакетну нормалізацію і пропускає використання шарів FC. Ця архітектура використовує 152 шари та використовує пропускні з'єднання. Зараз ResNet використовується в усіх алгоритмах глибокого навчання.

Висновок

Facebook використовує CNN для позначення зображень, Amazon для рекомендацій щодо продуктів та Google для пошуку серед фотографій користувачів. Все це робиться з більшою точністю та ефективністю. Прогрес у глибокому навчанні досяг етапу, коли CNN розвивався та допомагає багатьом чином. Коли ускладнюється CNN, це допомагає підвищити ефективність.

Рекомендована стаття

Це посібник з конволюційних нейронних мереж. Тут ми обговорюємо Вступ до конволюційних нейронних мереж та його шарів разом з архітектурою. Ви також можете ознайомитися з іншими запропонованими нами статтями, щоб дізнатися більше -

  1. Класифікація нейронної мережі
  2. Машинне навчання проти нейронної мережі
  3. Огляд алгоритмів нейронної мережі
  4. Повторні нейронні мережі (RNN)
  5. Впровадження нейронних мереж
  6. Топ-6 порівнянь між CNN та RNN

Категорія: