Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

echo.hive
Rete attrattore continua e cellule vettoriali di confine (baffi) combinate con 3 neuroni motori apprendono a navigare tra gli ostacoli e a dirigersi verso il cibo
Niente retropropagazione. apprendimento modulato dai premi con tracciamenti di idoneità
Collegamento al codice sorgente nel commento.

echo.hive14 ore fa
Ho costruito una Rete Attrattore Continua con 3 neuroni motori che imparano a guidare i topi verso il cibo utilizzando la plasticità hebbiana modulata dal premio.
Niente retropropagazione e niente SGD.
In questo caso, all'inizio, la rete ha imparato a girare intorno al cibo 😯
Il codice sorgente è open source. link nel commento.
36 neuroni nella CAN rilevano dove si trova il cibo, ogni neurone in questa rete si connette a ogni neurone motorio.
All'inizio le connessioni sono casuali e deboli e diventano più forti man mano che il topo si avvicina e raggiunge il cibo. La rete fa questo tenendo traccia di quali neuroni si attivano insieme per raggiungere questo obiettivo e rafforzando quelle connessioni.
Se trovi interessante questo progetto, dai un'occhiata al mio progetto di reti neurali spiking. Metterò un link a quello nel commento.
8,57K
Ho costruito una Rete Attrattore Continua con 3 neuroni motori che imparano a guidare i topi verso il cibo utilizzando la plasticità hebbiana modulata dal premio.
Niente retropropagazione e niente SGD.
In questo caso, all'inizio, la rete ha imparato a girare intorno al cibo 😯
Il codice sorgente è open source. link nel commento.
36 neuroni nella CAN rilevano dove si trova il cibo, ogni neurone in questa rete si connette a ogni neurone motorio.
All'inizio le connessioni sono casuali e deboli e diventano più forti man mano che il topo si avvicina e raggiunge il cibo. La rete fa questo tenendo traccia di quali neuroni si attivano insieme per raggiungere questo obiettivo e rafforzando quelle connessioni.
Se trovi interessante questo progetto, dai un'occhiata al mio progetto di reti neurali spiking. Metterò un link a quello nel commento.

echo.hive19 ore fa
La Rete Neurale Spiking da zero raggiunge un'accuratezza dell'8%. niente retropropagazione o SGD
Ho creato un ottimizzatore genetico di iperparametri e ora, in media, può ottenere un'accuratezza dell'8% che è ~3% sopra la probabilità casuale
Link al codice sorgente con un video dettagliato e spiegazioni in markdown nei commenti
Di solito inizia anche sotto il 5% e migliora lentamente, poi alla fine può iniziare a scendere sotto il 5%, tutto ciò mi porta a credere che ci siano barlumi di apprendimento in corso. A volte è stabile intorno al 7-8-9% per lungo tempo
Non c'è retropropagazione o SGD. Impara tramite STDP (plasticità dipendente dal tempo degli spike) e un meccanismo di ricompensa
Ogni esempio viene presentato molte volte (500 in questo caso) il che produce un treno di spike che porta a una lista di idoneità, alla fine di un turno, in base a se la risposta era corretta o meno, regoliamo i pesi usando la ricompensa come moltiplicatore
Il timing degli spike tiene traccia della sequenza di attivazioni neuronali e quali sono state più propense a portare alla risposta corretta
Fammi sapere cosa ne pensi
60,74K
I calamari hanno assoni giganti per aiutare con il loro "sistema nervoso a getto di fuga".
Questi assoni sono ~500 volte più grandi degli assoni normali.
Gli assoni trasmettono potenziali d'azione più velocemente quando hanno un diametro maggiore o quando sono ben mielinizzati. La mielina è un po' come la pellicola di plastica attorno ai cavi (come l'isolamento).
L'assone è la parte del neurone che viene subito dopo il nucleo e trasmette il segnale di picco del neurone se il segnale supera la soglia all'innesto dell'assone.
E gli assoni giganti non sono mielinizzati.

1,86K
Principali
Ranking
Preferiti
