Spiking Neural Network vanaf nul bereikt 8% nauwkeurigheid. geen backpropagation of SGD Ik heb een genetische hyperparameter optimizer gemaakt en het kan nu gemiddeld 8% nauwkeurigheid behalen, wat ~3% boven de kans is Link naar de broncode met een gedetailleerde video en markdown uitleg in de opmerkingen Het begint meestal ook lager dan 5% en verbetert langzaam, om uiteindelijk weer onder de 5% te zakken, wat me doet geloven dat er sprankjes van leren plaatsvinden. Soms is het stabiel rond de 7-8-9% voor een lange tijd Er is geen backpropagation of SGD. Het leert via STDP (spike timing dependent plasticity) en een beloningsmechanisme each voorbeeld wordt veelvuldig gepresenteerd (500 in dit geval) wat een spike train produceert die leidt tot een eligibility list, aan het einde van een beurt, afhankelijk van of het antwoord correct was of niet, passen we de gewichten aan met de beloning als vermenigvuldiger Spike timing houdt de volgorde van neuronvuur bij en welke waarschijnlijker hebben geleid tot het juiste antwoord Laat me weten wat je ervan vindt