Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Aumentar a rede neural do zero atinge 8% de precisão. sem retropropagação ou SGD
Eu criei um otimizador de hiperparâmetro genético e agora, em média, pode obter 8% de precisão, o que é ~ 3% acima do acaso
Link para o código-fonte com um vídeo detalhado e explicações de markdown no comentário
Ele também geralmente começa abaixo de 5% e melhora lentamente, eventualmente pode começar a cair abaixo de 5%, o que me leva a acreditar que há vislumbres de aprendizado ocorrendo. às vezes é estável em torno de 7-8-9% por um longo tempo
não há retropropagação ou SGD. ele aprende via STDP (plasticidade dependente do tempo de pico) e um mecanismo de recompensa
Cada exemplo é apresentado n muitas vezes (500 neste caso) que produz trem de pico que leva à lista de elegibilidade, no final de um turno com base em se a resposta estava correta ou não, ajustamos os pesos usando a recompensa como multiplicador
O tempo de pico acompanha a sequência de disparos de neurônios e quais eram mais prováveis de levar à resposta correta
deixe-me saber o que você pensa
Melhores
Classificação
Favoritos

