Spiking Neural Network de la zero atinge o precizie de 8%. fără retropropagare sau SGD Am creat un optimizator de hiperparametri genetici și acum, în medie, poate obține o precizie de 8%, ceea ce este ~3% peste șanse Link către codul sursă cu un videoclip detaliat și explicații de markdown în comentariu De asemenea, începe de obicei sub 5% și se îmbunătățește încet, apoi poate începe să scadă sub 5%, ceea ce mă face să cred că există licăriri de învățare. alteori este stabilit în jur de 7-8-9% pentru o lungă perioadă de timp nu există retropropagare sau SGD. învață prin STDP (plasticitate dependentă de momentul vârfului) și un mecanism de recompensă Fiecare exemplu este prezentat de mai multe ori (500 în acest caz) ceea ce produce o trenă de vârf care duce la lista de eligibilitate, la sfârșitul unei ture în funcție de dacă răspunsul a fost corect sau nu, ajustăm ponderile folosind recompensa ca multiplicator Sincronizarea vârfurilor ține evidența secvenței de declanșări ale neuronilor și care au fost mai probabil să fi dus la răspunsul corect spune-mi ce părere ai