Як навчається мозок. Частина 1 з 4

 

Неможливе для мозку

Винахід зворотного поширення помилки негайно викликав протест у деяких нейробіологів, які заявили, що це ніколи не спрацює в реальному мозку. Найвідомішим скептиком був Френсіс Крік, лауреат Нобелівської премії, один з першовідкривачів структури ДНК, який пізніше став нейробіологом. У 1989 році Крік писав : «Що стосується процесу навчання , малоймовірно, що мозок дійсно використовує зворотне поширення».

Метод зворотного поширення вважається біологічно неправдоподібним за кількома основними причинами. По-перше, в той час, як комп’ютери можуть легко реалізувати алгоритм в два етапи, зробити це для біологічних нейронних мереж нетривіально. Друге – це те, що обчислювальні нейробіологи називають проблемою перенесення ваги: алгоритм зворотного поширення копіює або «транспортує» інформацію про всі синаптичні ваги, яка беруть участь у виведенні, і оновлює цю вагу для більшої точності. Але в біологічній мережі нейрони бачать тільки вихідні дані інших нейронів, а не синаптичну вагу або внутрішні процеси, які формують цей вихідний сигнал. З точки зору нейрона, «нормально знати свою власну синаптичну вагу», – сказав Ямінс. «Що не є нормальним, так це знати набір синаптичної ваги інших нейронів».

Будь-яке біологічно правдоподібне правило навчання також мало б підпорядковуватися обмеженню, згідно з яким нейрони можуть отримувати доступ до інформації тільки від сусідніх нейронів; Для зворотного поширення може знадобитися інформація від більш віддалених нейронів. Отже, «якщо ви застосуєте зворотнє поширення до букви, мозку здасться неможливим її вирахувати», – відмітив Бенжі.

Проте, Хінтон і кілька інших вчених негайно взялися за роботу над біологічно правдоподібними варіаціями зворотного поширення. «Перша стаття, в якій стверджується, що мозок робить [щось на зразок] зворотного поширення, приблизно така ж стара, як і зворотне поширення», – сказав Конрад Кордінг , комп’ютерний нейробіолог з Університету Пенсільванії. За останнє десятиліття, коли успіхи штучних нейронних мереж привели до того, що вони стали домінувати в дослідженнях штучного інтелекту, зусилля з пошуку біологічного еквівалента зворотного поширення інформації активізувалися.

Залишатися більш реалістичним

Візьмемо, наприклад, одне з найдивніших рішень проблеми перенесення ваги, люб’язно надане Тімоті Ліллікреп з Google DeepMind в Лондоні і його колегами в 2016 році. Їх алгоритм, аби не покладатися на матрицю ваги, записаної при прямому проході, використовував матрицю, що ініціалізовувалась з випадковими значеннями для зворотного проходу. Після призначення ці значення ніколи не змінюються, тому нема потреби переносити ваги для кожного зворотного проходу.

До загального подиву, мережа це засвоїла. Оскільки пряма вага, що використовується для виведення, оновлюються при кожному зворотному проході, мережа як і раніше спускається по градієнту функції втрат, але іншим шляхом. Пряма ваги повільно вирівнює себе із випадково обраною зворотною вагою, щоб в кінцевому підсумку дати правильні відповіді, давши алгоритму назву: вирівнювання зі зворотним зв’язком.

«Виявляється, насправді це не так погано, як ви думаєте», – сказав Ямінс – принаймні, для простих задач. Для великомасштабних проблем і для глибших мереж з великою кількістю прихованих шарів  вирівнювання зворотного зв’язку не працює так само добре, як зворотне поширення помилки: оскільки поновлення прямої ваги менш точні на кожному проході, ніж вони були б на основі дійсно зворотної інформації, це потребує більше даних для навчання мережі.

Йошуа Бенжі, дослідник штучного інтелекту і фахівець з інформатики з Університету Монреаля, є одним з учених, які шукають алгоритми навчання, настільки ж ефективні, як метод зворотного поширення, але більш правдоподібні з біологічної точки зору.

Дослідники також вивчили способи узгодження продуктивності зворотного поширення зі збереженням класичного правила навчання Хебба, згідно з яким нейрони реагують тільки на своїх локальних сусідів. Зворотне поширення можна розглядати як один набір нейронів, що виконують логічний висновок, і інший набір нейронів, що виконують обчислення для оновлення синаптичних ваг. Ідея Хінтона полягала в тому, щоб працювати над алгоритмами, в яких кожен нейрон виконував би обидва набори обчислень. «Це було в основному тим, про що говорив Джефф в 2007 році», – сказав Бенжі.

Ґрунтуючись на роботі Хінтона, команда Бенжі запропонувала в 2017 році правило навчання, яке вимагає нейронну мережу з повторюваними сполуками (тобто, якщо нейрон A активує нейрон B, то нейрон B, своєю чергою, активує нейрон A). Якщо в таку мережу надходить деякий сигнал, дані (інпут), він встановлює реверберацію мережі, оскільки кожен нейрон реагує на стимули та гальмування своїх безпосередніх сусідів.

Зрештою, мережа досягає стану, в якому нейрони знаходяться в рівновазі з вхідними даними (інпутом) і один з одним, і видає вихідний сигнал (аутпут), який може бути помилковим. Потім алгоритм підштовхує вихідний сигнал (аутпут) нейронів до бажаного результату. Це встановлює інший сигнал, що поширюється в зворотному напрямку мережею, викликаючи аналогічну динаміку. Мережа знаходить нову рівновагу.

«Принадність математики в тому, що якщо ви порівняєте ці дві конфігурації до підштовхування і після підштовхування, ви отримаєте всю інформацію, необхідну для пошуку градієнта», – сказав Бенжі. Навчання мережі містить просте повторення цього процесу «поширення рівноваги» ітегративно над великою кількістю позначених даних.

Далі буде.

Джерело

Як навчається мозок. Частина 2 із 4

You May Also Like

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *