Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

echo.hive
Continue attractor netwerk en grensvectorcellen (snorharen) gecombineerd met 3 motorneuronen leren om obstakels te navigeren en naar voedsel te gaan
Geen backpropagation. beloningen gemoduleerd leren met geschiktheidstracering
Link naar de broncode in de opmerking.

echo.hive15 uur geleden
Ik heb een Continuous Attractor Network gebouwd met 3 motorneuronen die leren om de muizen naar voedsel te leiden met behulp van beloningsgemoduleerde Hebbiaanse plasticiteit.
Geen backpropagation en geen SGD.
In dit geval leerde het netwerk in eerste instantie om rond het voedsel te cirkelen 😯
De broncode is open source. Link in de opmerking.
36 neuronen in de CAN detecteren waar het voedsel is, elk neuron in dit netwerk is verbonden met elk motorneuron.
In het begin zijn de verbindingen willekeurig en zwak en worden ze sterker naarmate de muizen dichterbij komen en het voedsel bereiken. Het netwerk doet dit door bij te houden welke neuronen samen vuren om dit te bereiken en die verbindingen te versterken.
Als je dit interessant vindt, kijk dan naar mijn Spiking neural networks-project. Ik zal daar ook een link naar in de opmerking plaatsen.
8,58K
Ik heb een Continuous Attractor Network gebouwd met 3 motorneuronen die leren om de muizen naar voedsel te leiden met behulp van beloningsgemoduleerde Hebbiaanse plasticiteit.
Geen backpropagation en geen SGD.
In dit geval leerde het netwerk in eerste instantie om rond het voedsel te cirkelen 😯
De broncode is open source. Link in de opmerking.
36 neuronen in de CAN detecteren waar het voedsel is, elk neuron in dit netwerk is verbonden met elk motorneuron.
In het begin zijn de verbindingen willekeurig en zwak en worden ze sterker naarmate de muizen dichterbij komen en het voedsel bereiken. Het netwerk doet dit door bij te houden welke neuronen samen vuren om dit te bereiken en die verbindingen te versterken.
Als je dit interessant vindt, kijk dan naar mijn Spiking neural networks-project. Ik zal daar ook een link naar in de opmerking plaatsen.

echo.hive20 uur geleden
Spiking Neural Network vanaf nul bereikt 8% nauwkeurigheid. geen backpropagation of SGD
Ik heb een genetische hyperparameter optimizer gemaakt en het kan nu gemiddeld 8% nauwkeurigheid behalen, wat ~3% boven de kans is
Link naar de broncode met een gedetailleerde video en markdown uitleg in de opmerkingen
Het begint meestal ook lager dan 5% en verbetert langzaam, om uiteindelijk weer onder de 5% te zakken, wat me doet geloven dat er sprankjes van leren plaatsvinden. Soms is het stabiel rond de 7-8-9% voor een lange tijd
Er is geen backpropagation of SGD. Het leert via STDP (spike timing dependent plasticity) en een beloningsmechanisme
each voorbeeld wordt veelvuldig gepresenteerd (500 in dit geval) wat een spike train produceert die leidt tot een eligibility list, aan het einde van een beurt, afhankelijk van of het antwoord correct was of niet, passen we de gewichten aan met de beloning als vermenigvuldiger
Spike timing houdt de volgorde van neuronvuur bij en welke waarschijnlijker hebben geleid tot het juiste antwoord
Laat me weten wat je ervan vindt
60,74K
Inktvissen hebben gigantische axonen om hun "escape jet zenuwstelsel" te ondersteunen.
Deze axonen zijn ~500x groter dan reguliere axonen.
Axonen verzenden actiepotentialen sneller wanneer ze een grotere diameter hebben of goed gemyeliniseerd zijn. Myeline is een beetje zoals de plastic omhulsel rond kabels (zoals isolatie).
Een axon is het deel van de neuron dat direct na de kern komt en het spikesignaal van de neuron draagt als het signaal de drempel bij de axonheuvel overschrijdt.
En gigantische axonen zijn niet gemyeliniseerd.

1,86K
Boven
Positie
Favorieten
