Le réseau de neurones à impulsions créé de toutes pièces atteint une précision de 8 %. pas de rétropropagation ni de SGD J'ai créé un optimiseur génétique d'hyperparamètres et il peut maintenant, en moyenne, obtenir une précision de 8 %, ce qui est ~3 % au-dessus de la chance Lien vers le code source avec une vidéo détaillée et des explications en markdown dans les commentaires Il commence généralement en dessous de 5 % et s'améliore lentement, puis peut finalement commencer à descendre en dessous de 5 %, ce qui me fait croire qu'il y a des lueurs d'apprentissage qui se produisent. Parfois, il reste stable autour de 7-8-9 % pendant longtemps Il n'y a pas de rétropropagation ni de SGD. Il apprend via STDP (plasticité dépendante du timing des impulsions) et un mécanisme de récompense Chaque exemple est présenté plusieurs fois (500 dans ce cas), ce qui produit un train d'impulsions qui mène à une liste d'éligibilité. À la fin d'un tour, en fonction de si la réponse était correcte ou non, nous ajustons les poids en utilisant la récompense comme multiplicateur Le timing des impulsions garde une trace de la séquence de décharges neuronales et de celles qui étaient les plus susceptibles d'avoir conduit à la bonne réponse Faites-moi savoir ce que vous en pensez