Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

echo.hive
Kontinuerlig attraktornettverk og grensevektorceller (værhår) kombinert med 3 motornevroner lærer å navigere hindringer og gå mot mat
Ingen tilbakeformering. Belønner modulert læring med kvalifikasjonsspor
Lenke til kildekode i kommentar.

echo.hive14 timer siden
Jeg bygde et kontinuerlig attraktornettverk med 3 motornevroner som lærer å lede musene mot mat ved hjelp av belønningsmodulert hebbiansk plastisitet
Ingen tilbakeformering og ingen SGD.
I dette tilfellet lærte nettverket først å sirkle rundt maten 😯
Kildekoden er åpen kildekode. lenke i kommentar
36 nevroner i CAN oppdager hvor maten er, hvert nevron i dette nettverket kobles til hvert motornevron.
Til å begynne med er forbindelsene tilfeldige og svake, og de blir sterkere etter hvert som mus nærmer seg og når mat. Network gjør dette ved å holde styr på hvilke nevroner som fyres sammen for å oppnå dette og styrke disse forbindelsene
Hvis du synes dette er interessant, sjekk ut mitt Spiking nevrale nettverksprosjekt. Jeg vil legge inn en lenke til det i kommentar også
8,58K
Jeg bygde et kontinuerlig attraktornettverk med 3 motornevroner som lærer å lede musene mot mat ved hjelp av belønningsmodulert hebbiansk plastisitet
Ingen tilbakeformering og ingen SGD.
I dette tilfellet lærte nettverket først å sirkle rundt maten 😯
Kildekoden er åpen kildekode. lenke i kommentar
36 nevroner i CAN oppdager hvor maten er, hvert nevron i dette nettverket kobles til hvert motornevron.
Til å begynne med er forbindelsene tilfeldige og svake, og de blir sterkere etter hvert som mus nærmer seg og når mat. Network gjør dette ved å holde styr på hvilke nevroner som fyres sammen for å oppnå dette og styrke disse forbindelsene
Hvis du synes dette er interessant, sjekk ut mitt Spiking nevrale nettverksprosjekt. Jeg vil legge inn en lenke til det i kommentar også

echo.hive19 timer siden
Spiking av nevrale nettverk fra bunnen av oppnår 8 % nøyaktighet. ingen tilbakeforplantning eller SGD
Jeg laget en genetisk hyperparameteroptimaliserer, og den kan nå i gjennomsnitt få 8 % nøyaktighet som er ~3 % over sjansen
Lenke til kildekode med en detaljert video og markdown-forklaringer i kommentar
Det starter også vanligvis lavere enn 5 % og forbedres sakte, og kan til slutt begynne å falle under 5 %, noe som får meg til å tro at det er glimt av læring som finner sted. Noen ganger er det stabilt rundt 7-8-9% i lang tid
det er ingen backpropagation eller SGD. den lærer via STDP (spike timing dependent plasticity) og en belønningsmekanisme
Hvert eksempel presenteres N mange ganger (500 i dette tilfellet) som produserer Spike-tog som fører til kvalifiseringsliste, på slutten av en tur basert på om svaret var riktig eller ikke, justerer vi vektene ved å bruke belønningen som multiplikator
Spike-timing holder styr på sekvensen av nevronavfyringer og hvilke som var mer sannsynlig å ha ført til riktig svar
Fortell meg hva du synes
60,74K
Blekksprut har gigantiske aksoner for å hjelpe med deres "fluktjet-nervesystem"
Disse aksonene er ~500 ganger større enn vanlige aksoner
Aksoner overfører aksjonspotensialer raskere enten når de har større diameter eller når de er godt myeliniserte. Myelin er litt som plastinnpakningen rundt kabler (som isolasjon)
Axon er den delen av nevronet som kommer rett etter kjernen som bærer nevronets piggsignal hvis signalet passerer terskelen ved aksonhøyde.
Og gigantiske aksoner er ikke myelinisert

1,86K
Topp
Rangering
Favoritter
