Spiking Neural Network з нуля досягає точності 8%. без зворотного поширення або SGD Я створив оптимізатор генетичних гіперпараметрів, і він зараз, в середньому, може отримати точність 8%, що на ~3% вище шансу Посилання на вихідний код з детальним відео та поясненнями Markdown у коментарі Він також зазвичай починається нижче 5% і повільно покращується, а потім в кінцевому підсумку може почати опускатися нижче 5%, все це змушує мене вірити, що є проблиски навчання, що відбувається. У деяких випадках це стабель в районі 7-8-9% протягом тривалого часу немає зворотного поширення або SGD. він навчається за допомогою STDP (пластичність, залежна від часу спайка) та механізму винагороди Кожен приклад представлений n багато разів (у цьому випадку 500), що створює спайковий поїзд, який веде до списку відповідності, в кінці ходу залежно від того, чи була відповідь правильною чи ні, ми коригуємо ваги, використовуючи винагороду як множник Spike Timing відстежує послідовність збуджень нейронів і які з них з більшою ймовірністю призвели до правильної відповіді Дайте мені знати, що ви думаєте