Spiking Neural Network od podstaw osiąga 8% dokładności. brak wstecznej propagacji ani SGD Stworzyłem genetyczny optymalizator hiperparametrów i teraz, średnio, może uzyskać 8% dokładności, co jest ~3% powyżej szansy Link do kodu źródłowego z szczegółowym wideo i wyjaśnieniami w markdown w komentarzu Zwykle zaczyna się poniżej 5% i powoli się poprawia, a następnie może zacząć spadać poniżej 5%, co prowadzi mnie do przekonania, że zachodzą pewne oznaki uczenia się. Czasami stabilizuje się wokół 7-8-9% przez długi czas Nie ma wstecznej propagacji ani SGD. Uczy się za pomocą STDP (plastyczność zależna od czasu impulsów) i mechanizmu nagrody Każdy przykład jest prezentowany wiele razy (500 w tym przypadku), co produkuje ciąg impulsów, który prowadzi do listy uprawnień, na końcu tury, w zależności od tego, czy odpowiedź była poprawna, dostosowujemy wagi, używając nagrody jako mnożnika Czas impulsów śledzi sekwencję wystrzałów neuronów i które z nich były bardziej prawdopodobne, aby doprowadzić do poprawnej odpowiedzi Daj mi znać, co o tym myślisz