Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

echo.hive
Rede de atratores contínuos e células vetoriais de limite (bigodes) combinadas com 3 neurônios motores aprendem a navegar por obstáculos e ir em direção à comida
Sem retropropagação. Recompensa o aprendizado modulado com rastreamentos de elegibilidade
Link para o código-fonte no comentário.

echo.hive26 de out., 15:34
Eu construí uma Rede de Atrator Contínuo com 3 neurônios motores que aprendem a guiar os camundongos em direção à comida usando a plasticidade Hebbiana modulada por recompensa
Sem retropropagação e sem SGD.
Nesse caso, a princípio, os conectados em rede aprenderam a circular em torno da comida 😯
O código-fonte é de código aberto. link no comentário
36 neurônios no CAN detectam onde está o alimento, cada neurônio nesta rede se conecta a cada neurônio motor.
No início, as conexões são aleatórias e fracas e ficam mais fortes à medida que os ratos se aproximam e alcançam a comida. faz isso acompanhando quais neurônios dispararam juntos para conseguir isso e fortalecer essas conexões
Se você achar isso interessante, confira meu projeto de redes neurais Spiking. Vou colocar um link para isso no comentário também
13,23K
Eu construí uma Rede de Atrator Contínuo com 3 neurônios motores que aprendem a guiar os camundongos em direção à comida usando a plasticidade Hebbiana modulada por recompensa
Sem retropropagação e sem SGD.
Nesse caso, a princípio, os conectados em rede aprenderam a circular em torno da comida 😯
O código-fonte é de código aberto. link no comentário
36 neurônios no CAN detectam onde está o alimento, cada neurônio nesta rede se conecta a cada neurônio motor.
No início, as conexões são aleatórias e fracas e ficam mais fortes à medida que os ratos se aproximam e alcançam a comida. faz isso acompanhando quais neurônios dispararam juntos para conseguir isso e fortalecer essas conexões
Se você achar isso interessante, confira meu projeto de redes neurais Spiking. Vou colocar um link para isso no comentário também

echo.hive26 de out., 10:20
Aumentar a rede neural do zero atinge 8% de precisão. sem retropropagação ou SGD
Eu criei um otimizador de hiperparâmetro genético e agora, em média, pode obter 8% de precisão, o que é ~ 3% acima do acaso
Link para o código-fonte com um vídeo detalhado e explicações de markdown no comentário
Ele também geralmente começa abaixo de 5% e melhora lentamente, eventualmente pode começar a cair abaixo de 5%, o que me leva a acreditar que há vislumbres de aprendizado ocorrendo. às vezes é estável em torno de 7-8-9% por um longo tempo
não há retropropagação ou SGD. ele aprende via STDP (plasticidade dependente do tempo de pico) e um mecanismo de recompensa
Cada exemplo é apresentado n muitas vezes (500 neste caso) que produz trem de pico que leva à lista de elegibilidade, no final de um turno com base em se a resposta estava correta ou não, ajustamos os pesos usando a recompensa como multiplicador
O tempo de pico acompanha a sequência de disparos de neurônios e quais eram mais prováveis de levar à resposta correta
deixe-me saber o que você pensa
116,03K
As lulas têm axônios gigantes para ajudar com seu "sistema nervoso de jato de escape"
Esses axônios são ~ 500x maiores que os axônios regulares
Os axônios transmitem potenciais de ação mais rapidamente quando têm um diâmetro maior ou quando estão bem mielinizados. A mielina é como o invólucro de plástico em torno dos cabos (como isolamento)
O axônio é a parte do neurônio que vem logo após o núcleo que carrega o sinal de pico do neurônio se o sinal ultrapassar o limiar na colina do axônio.
E axônios gigantes não são mielinizados

2,7K
Melhores
Classificação
Favoritos
