Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

echo.hive
Rede de atratores contínuos e células vetoriais de limite (bigodes) combinadas com 3 neurônios motores aprendem a navegar por obstáculos e ir em direção à comida
Sem retropropagação. recompensas moduladas de aprendizado com traços de elegibilidade
Link para o código fonte no comentário.

echo.hiveHá 21 horas
Eu construí uma Rede de Atração Contínua com 3 neurônios motores que aprendem a guiar os camundongos em direção à comida usando plasticidade hebbiana modulada por recompensa
Sem retropropagação e sem SGD.
Neste caso, a rede aprendeu a circular em torno da comida 😯
O código-fonte é de código aberto. link no comentário
36 neurônios na CAN detectam onde está a comida, cada neurônio nesta rede conecta-se a cada neurônio motor.
No início, as conexões são aleatórias e fracas e elas se tornam mais fortes à medida que os camundongos se aproximam e alcançam a comida. a rede faz isso mantendo o controle de quais neurônios dispararam juntos para alcançar isso e fortalecer essas conexões
Se você achar isso interessante, confira meu projeto de redes neurais espinhosas. Eu também colocarei um link para isso no comentário.
10,91K
Eu construí uma Rede de Atração Contínua com 3 neurônios motores que aprendem a guiar os camundongos em direção à comida usando plasticidade hebbiana modulada por recompensa
Sem retropropagação e sem SGD.
Neste caso, a rede aprendeu a circular em torno da comida 😯
O código-fonte é de código aberto. link no comentário
36 neurônios na CAN detectam onde está a comida, cada neurônio nesta rede conecta-se a cada neurônio motor.
No início, as conexões são aleatórias e fracas e elas se tornam mais fortes à medida que os camundongos se aproximam e alcançam a comida. a rede faz isso mantendo o controle de quais neurônios dispararam juntos para alcançar isso e fortalecer essas conexões
Se você achar isso interessante, confira meu projeto de redes neurais espinhosas. Eu também colocarei um link para isso no comentário.

echo.hive26/10, 10:20
Rede Neural Espinhosa do zero alcança 8% de precisão. sem retropropagação ou SGD
Criei um otimizador genético de hiperparâmetros e agora, em média, consigo 8% de precisão, o que é ~3% acima da chance
Link para o código-fonte com um vídeo detalhado e explicações em markdown nos comentários
também geralmente começa abaixo de 5% e melhora lentamente, depois eventualmente pode começar a cair abaixo de 5%, tudo isso me leva a acreditar que há indícios de aprendizado ocorrendo. às vezes fica estável em torno de 7-8-9% por um longo tempo
não há retropropagação ou SGD. aprende via STDP (plasticidade dependente do tempo de pico) e um mecanismo de recompensa
each exemplo é apresentado muitas vezes (500 neste caso) o que produz um trem de picos que leva a uma lista de elegibilidade, no final de uma rodada, com base em se a resposta estava correta ou não, ajustamos os pesos usando a recompensa como um multiplicador
o tempo de pico mantém o controle da sequência de disparos de neurônios e quais deles eram mais propensos a levar à resposta correta
deixe-me saber o que você acha
84,83K
Os lulas têm axônios gigantes para ajudar com o seu "sistema nervoso de fuga a jato".
Esses axônios são ~500x maiores do que os axônios regulares.
Os axônios transmitem potenciais de ação mais rapidamente quando têm um diâmetro maior ou quando estão bem mielinizados. A mielina é como a embalagem plástica em torno de cabos (como isolamento).
O axônio é a parte do neurônio que vem logo após o núcleo e que transporta o sinal de pico do neurônio se o sinal ultrapassar o limiar no cone axonal.
E os axônios gigantes não são mielinizados.

2,23K
Top
Classificação
Favoritos
