Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Le réseau de neurones à impulsions créé de toutes pièces atteint une précision de 8 %. pas de rétropropagation ni de SGD
J'ai créé un optimiseur génétique d'hyperparamètres et il peut maintenant, en moyenne, obtenir une précision de 8 %, ce qui est ~3 % au-dessus de la chance
Lien vers le code source avec une vidéo détaillée et des explications en markdown dans les commentaires
Il commence généralement en dessous de 5 % et s'améliore lentement, puis peut finalement commencer à descendre en dessous de 5 %, ce qui me fait croire qu'il y a des lueurs d'apprentissage qui se produisent. Parfois, il reste stable autour de 7-8-9 % pendant longtemps
Il n'y a pas de rétropropagation ni de SGD. Il apprend via STDP (plasticité dépendante du timing des impulsions) et un mécanisme de récompense
Chaque exemple est présenté plusieurs fois (500 dans ce cas), ce qui produit un train d'impulsions qui mène à une liste d'éligibilité. À la fin d'un tour, en fonction de si la réponse était correcte ou non, nous ajustons les poids en utilisant la récompense comme multiplicateur
Le timing des impulsions garde une trace de la séquence de décharges neuronales et de celles qui étaient les plus susceptibles d'avoir conduit à la bonne réponse
Faites-moi savoir ce que vous en pensez
Meilleurs
Classement
Favoris

