заглушки Що таке нейронні мережі? - Об'єднуйтесь.AI
Зв'язатися з нами
Майстер-клас ШІ:

AI 101

Що таке нейронні мережі?

mm
оновлений on

Що таке штучні нейронні мережі (ШНМ)?

Багато з найбільших досягнень ШІ є керується штучними нейронними мережами. Штучні нейронні мережі (ШНМ) — це з’єднання математичних функцій, об’єднаних у форматі, натхненному нейронними мережами, які є в мозку людини. Ці ШНМ здатні витягувати складні шаблони з даних, застосовуючи ці шаблони до невидимих ​​даних для класифікації/розпізнавання даних. Таким чином машина «навчається». Це короткий огляд нейронних мереж, але давайте ближче розглянемо нейронні мережі, щоб краще зрозуміти, що вони собою являють і як вони працюють.

Пояснення багаторівневого персептрона

Перш ніж ми подивимося на більш складні нейронні мережі, ми збираємось поглянути на просту версію ШНМ, багатошаровий персептрон (MLP).

Уявіть конвеєр на фабриці. На цій конвеєрній лінії один працівник отримує деталь, вносить у неї певні коригування, а потім передає її наступному робітнику лінії, який робить те саме. Цей процес триває до тих пір, поки останній працівник на лінії не нанесе останні штрихи на виріб і не поставить його на ремінь, який вивезе його з фабрики. У цій аналогії конвеєр має кілька «шарів», і продукти переміщуються між шарами, коли вони переміщуються від працівника до працівника. Складальна лінія також має точку входу та точку виходу.

Багатошаровий персептрон можна розглядати як дуже просту виробничу лінію, що складається з трьох шарів: вхідного, прихованого та вихідного. Вхідний рівень – це місце, де дані подаються в MLP, а на прихованому рівні певна кількість «робочих» обробляє дані перед тим, як передавати їх на вихідний рівень, який передає продукт зовнішньому світу. У випадку MLP ці працівники називаються «нейронами» (або іноді вузлами), і коли вони обробляють дані, вони маніпулюють ними за допомогою серії математичних функцій.

У мережі існують структури, що з’єднують вузли з вузлами, які називаються «вагами”. Ваги — це припущення про те, як точки даних пов’язані під час їхнього переміщення мережею. Іншими словами, ваги відображають рівень впливу одного нейрона на інший. Ваги проходять через «функцію активації», коли вони залишають поточний вузол, який є типом математичної функції, яка перетворює дані. Вони перетворюють лінійні дані в нелінійні представлення, що дозволяє мережі аналізувати складні шаблони.

Аналогія з людським мозком, яку має на увазі «штучна нейронна мережа», походить від того факту, що нейрони, які складають людський мозок, об’єднані разом подібно до того, як зв’язані вузли в ШНМ.

Хоча багатошарові персептрони існували з 1940-х років, існувала низка обмежень, які не дозволяли їм бути особливо корисними. Однак протягом останніх кількох десятиліть техніка під назвою «зворотне поширення”, який дозволив мережам регулювати ваги нейронів і таким чином навчатися набагато ефективніше. Зворотне розповсюдження змінює ваги в нейронній мережі, дозволяючи мережі краще фіксувати фактичні шаблони в даних.

Глибокі нейронні мережі

Глибокі нейронні мережі беруть базову форму MLP і роблять її більшою, додаючи більше прихованих шарів у середині моделі. Тож замість вхідного, прихованого та вихідного шарів існує багато прихованих шарів посередині, і результати одного прихованого шару стають входами для наступного прихованого шару, доки дані не пройдуть весь шлях через мережу та повернуто.

Кілька прихованих шарів глибокої нейронної мережі здатні інтерпретувати складніші шаблони, ніж традиційний багатошаровий перцептрон. Різні рівні глибокої нейронної мережі вивчають шаблони різних частин даних. Наприклад, якщо вхідні дані складаються з зображень, перша частина мережі може інтерпретувати яскравість або темність пікселів, тоді як наступні шари вибиратимуть форми та краї, які можна використовувати для розпізнавання об’єктів на зображенні.

Різні типи нейронних мереж

Існують різні типи нейронних мереж, і кожен із них має свої переваги та недоліки (а отже, і власні випадки використання). Тип глибокої нейронної мережі, описаний вище, є найпоширенішим типом нейронної мережі, і його часто називають прямою нейронною мережею.

Одним із варіантів нейронних мереж є повторювана нейронна мережа (RNN). У випадку повторюваних нейронних мереж циклічні механізми використовуються для зберігання інформації з попередніх станів аналізу, тобто вони можуть інтерпретувати дані, де порядок має значення. RNN корисні для отримання шаблонів із послідовних/хронологічних даних. Повторювані нейронні мережі можуть бути однонаправленими або двонаправленими. У випадку двонаправленої нейронної мережі мережа може отримувати інформацію з наступних частин послідовності, а також із попередніх частин послідовності. Оскільки двонаправлений RNN враховує більше інформації, він може краще виводити правильні шаблони з даних.

Згорточна нейронна мережа — це особливий тип нейронної мережі, який вправно інтерпретує шаблони, знайдені в зображеннях. CNN працює, пропускаючи фільтр через пікселі зображення та досягаючи числового представлення пікселів у зображенні, яке потім може аналізувати на шаблони. CNN побудовано так, що згорткові шари, які витягують пікселі із зображення, йдуть першими, а потім йдуть щільно пов’язані шари прямого зв’язку, ті, які фактично навчаться розпізнавати об’єкти, ідуть після них.

Блогер і програміст зі спеціальностями в машинне навчання та Глибоке навчання теми. Деніел сподівається допомогти іншим використовувати силу ШІ для суспільного блага.