Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

echo.hive
Las redes de atractores continuos y las células vectoriales de límite (bigotes) combinadas con 3 neuronas motoras aprenden a navegar obstáculos y dirigirse hacia la comida
Sin retropropagación. recompensas moduladas de aprendizaje con trazas de elegibilidad
Enlace al código fuente en el comentario.

echo.hiveHace 19 horas
Construí una Red de Atractores Continuos con 3 neuronas motoras que aprenden a guiar a los ratones hacia la comida utilizando plasticidad hebbiana modulada por recompensas.
Sin retropropagación y sin SGD.
En este caso, al principio, la red aprendió a rodear la comida 😯
El código fuente es de código abierto. enlace en el comentario.
36 neuronas en la CAN detectan dónde está la comida, cada neurona en esta red se conecta a cada neurona motora.
Al principio, las conexiones son aleatorias y débiles y se vuelven más fuertes a medida que el ratón se acerca y alcanza la comida. La red hace esto manteniendo un registro de qué neuronas se activaron juntas para lograr esto y fortalecer esas conexiones.
Si te parece interesante, echa un vistazo a mi proyecto de redes neuronales espinosas. También pondré un enlace a eso en el comentario.
10,11K
Construí una Red de Atractores Continuos con 3 neuronas motoras que aprenden a guiar a los ratones hacia la comida utilizando plasticidad hebbiana modulada por recompensas.
Sin retropropagación y sin SGD.
En este caso, al principio, la red aprendió a rodear la comida 😯
El código fuente es de código abierto. enlace en el comentario.
36 neuronas en la CAN detectan dónde está la comida, cada neurona en esta red se conecta a cada neurona motora.
Al principio, las conexiones son aleatorias y débiles y se vuelven más fuertes a medida que el ratón se acerca y alcanza la comida. La red hace esto manteniendo un registro de qué neuronas se activaron juntas para lograr esto y fortalecer esas conexiones.
Si te parece interesante, echa un vistazo a mi proyecto de redes neuronales espinosas. También pondré un enlace a eso en el comentario.

echo.hive26 oct, 10:20
La Red Neuronal Espinosa desde cero alcanza un 8% de precisión. sin retropropagación ni SGD
He creado un optimizador genético de hiperparámetros y ahora, en promedio, puede alcanzar un 8% de precisión, lo que es ~3% por encima de la probabilidad
Enlace al código fuente con un video detallado y explicaciones en markdown en el comentario
También suele comenzar por debajo del 5% y mejora lentamente, luego eventualmente puede comenzar a caer por debajo del 5%, todo lo cual me lleva a creer que hay destellos de aprendizaje ocurriendo. A veces se estabiliza alrededor del 7-8-9% durante mucho tiempo
No hay retropropagación ni SGD. Aprende a través de STDP (plasticidad dependiente del tiempo de picos) y un mecanismo de recompensa
Cada ejemplo se presenta muchas veces (500 en este caso), lo que produce un tren de picos que lleva a una lista de elegibilidad, al final de un turno, basado en si la respuesta fue correcta o no, ajustamos los pesos usando la recompensa como multiplicador
El tiempo de picos mantiene un registro de la secuencia de disparos de neuronas y cuáles fueron más propensos a haber llevado a la respuesta correcta
Déjame saber qué piensas
75,37K
Los calamares tienen axones gigantes para ayudar con su "sistema nervioso de escape por chorro".
Estos axones son ~500 veces más grandes que los axones regulares.
Los axones transmiten potenciales de acción más rápido ya sea cuando tienen un diámetro mayor o cuando están bien mielinizados. La mielina es como el envoltorio de plástico alrededor de los cables (como el aislamiento).
El axón es la parte de la neurona que viene justo después del núcleo y que lleva la señal de pico de la neurona si la señal supera el umbral en el montículo axónico.
Y los axones gigantes no están mielinizados.

2,23K
Parte superior
Clasificación
Favoritos
