Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Spiking Neural Network od podstaw osiąga 8% dokładności. brak wstecznej propagacji ani SGD
Stworzyłem genetyczny optymalizator hiperparametrów i teraz, średnio, może uzyskać 8% dokładności, co jest ~3% powyżej szansy
Link do kodu źródłowego z szczegółowym wideo i wyjaśnieniami w markdown w komentarzu
Zwykle zaczyna się poniżej 5% i powoli się poprawia, a następnie może zacząć spadać poniżej 5%, co prowadzi mnie do przekonania, że zachodzą pewne oznaki uczenia się. Czasami stabilizuje się wokół 7-8-9% przez długi czas
Nie ma wstecznej propagacji ani SGD. Uczy się za pomocą STDP (plastyczność zależna od czasu impulsów) i mechanizmu nagrody
Każdy przykład jest prezentowany wiele razy (500 w tym przypadku), co produkuje ciąg impulsów, który prowadzi do listy uprawnień, na końcu tury, w zależności od tego, czy odpowiedź była poprawna, dostosowujemy wagi, używając nagrody jako mnożnika
Czas impulsów śledzi sekwencję wystrzałów neuronów i które z nich były bardziej prawdopodobne, aby doprowadzić do poprawnej odpowiedzi
Daj mi znać, co o tym myślisz
Najlepsze
Ranking
Ulubione

