Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

echo.hive
Rețeaua de atracție continuă și celulele vectoriale limită (mustăți) combinate cu 3 neuroni motori învață să depășească obstacolele și să meargă spre mâncare
Fără propagare inversă. recompensează învățarea modulată cu urme de eligibilitate
Link către codul sursă în comentariu.

echo.hive26 oct., 15:34
Am construit o rețea de atracție continuă cu 3 neuroni motori care învață să ghideze șoarecii spre hrană folosind plasticitatea Hebbian modulată de recompensă
Fără retropropagare și fără SGD.
În acest caz, la început, cei din rețea au învățat să se învârtă în jurul alimentelor 😯
Codul sursă este open source. link în comentariu
36 de neuroni din CAN detectează unde se află mâncarea, fiecare neuron din această rețea se conectează la fiecare neuron motor.
La început, conexiunile sunt aleatorii și slabe și devin mai puternice pe măsură ce șoarecii se apropie și ajung la hrană. network face acest lucru prin urmărirea neuronilor care s-au declanșat împreună pentru a realiza acest lucru și pentru a consolida acele conexiuni
Dacă vi se pare interesant, consultați proiectul meu Spiking neural networks. Voi pune și un link către asta în comentariu
12,55K
Am construit o rețea de atracție continuă cu 3 neuroni motori care învață să ghideze șoarecii spre hrană folosind plasticitatea Hebbian modulată de recompensă
Fără retropropagare și fără SGD.
În acest caz, la început, cei din rețea au învățat să se învârtă în jurul alimentelor 😯
Codul sursă este open source. link în comentariu
36 de neuroni din CAN detectează unde se află mâncarea, fiecare neuron din această rețea se conectează la fiecare neuron motor.
La început, conexiunile sunt aleatorii și slabe și devin mai puternice pe măsură ce șoarecii se apropie și ajung la hrană. network face acest lucru prin urmărirea neuronilor care s-au declanșat împreună pentru a realiza acest lucru și pentru a consolida acele conexiuni
Dacă vi se pare interesant, consultați proiectul meu Spiking neural networks. Voi pune și un link către asta în comentariu

echo.hive26 oct., 10:20
Spiking Neural Network de la zero atinge o precizie de 8%. fără retropropagare sau SGD
Am creat un optimizator de hiperparametri genetici și acum, în medie, poate obține o precizie de 8%, ceea ce este ~3% peste șanse
Link către codul sursă cu un videoclip detaliat și explicații de markdown în comentariu
De asemenea, începe de obicei sub 5% și se îmbunătățește încet, apoi poate începe să scadă sub 5%, ceea ce mă face să cred că există licăriri de învățare. alteori este stabilit în jur de 7-8-9% pentru o lungă perioadă de timp
nu există retropropagare sau SGD. învață prin STDP (plasticitate dependentă de momentul vârfului) și un mecanism de recompensă
Fiecare exemplu este prezentat de mai multe ori (500 în acest caz) ceea ce produce o trenă de vârf care duce la lista de eligibilitate, la sfârșitul unei ture în funcție de dacă răspunsul a fost corect sau nu, ajustăm ponderile folosind recompensa ca multiplicator
Sincronizarea vârfurilor ține evidența secvenței de declanșări ale neuronilor și care au fost mai probabil să fi dus la răspunsul corect
spune-mi ce părere ai
102,27K
Calmarii au axoni uriași pentru a-și ajuta "sistemul nervos cu jet de evadare"
Acești axoni sunt ~500 de ori mai mari decât axonii obișnuiți
Axonii transmit potențiale de acțiune mai repede fie atunci când au un diametru mai mare, fie când sunt bine mielinizați. Mielina este un fel de înveliș de plastic din jurul cablurilor (ca izolația)
Axonul este partea neuronului care vine imediat după nucleu și care transportă semnalul de vârf al neuronului dacă semnalul trece pragul de la dealul axonului.
Iar axonii uriași nu sunt mielinizați

2,55K
Limită superioară
Clasament
Favorite
