Aumentar a rede neural do zero atinge 8% de precisão. sem retropropagação ou SGD Eu criei um otimizador de hiperparâmetro genético e agora, em média, pode obter 8% de precisão, o que é ~ 3% acima do acaso Link para o código-fonte com um vídeo detalhado e explicações de markdown no comentário Ele também geralmente começa abaixo de 5% e melhora lentamente, eventualmente pode começar a cair abaixo de 5%, o que me leva a acreditar que há vislumbres de aprendizado ocorrendo. às vezes é estável em torno de 7-8-9% por um longo tempo não há retropropagação ou SGD. ele aprende via STDP (plasticidade dependente do tempo de pico) e um mecanismo de recompensa Cada exemplo é apresentado n muitas vezes (500 neste caso) que produz trem de pico que leva à lista de elegibilidade, no final de um turno com base em se a resposta estava correta ou não, ajustamos os pesos usando a recompensa como multiplicador O tempo de pico acompanha a sequência de disparos de neurônios e quais eram mais prováveis de levar à resposta correta deixe-me saber o que você pensa