トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
ニューラルネットワークをゼロからスパイクすると、8%の精度が達成されます。バックプロパゲーションまたはSGDなし
私は遺伝的ハイパーパラメータオプティマイザーを作成しましたが、現在では平均して8%の精度を得ることができ、これは確率を~3%上回っています
コメント内の詳細なビデオとマークダウンの説明を含むソースコードへのリンク
また、通常、5%未満で始まり、徐々に改善し、最終的には5%を下回り始める可能性があり、これらすべてが、学習の兆しが起こっていると信じさせます。sometims それは長い間7-8-9%前後で安定しています
バックプロパゲーションやSGDはありません。STDP(スパイクタイミング依存可塑性)と報酬メカニズムを介して学習します
各例は n 回 (この場合は 500 回) 提示され、適格性リストにつながるスパイク トレインを生成し、答えが正しかったかどうかに基づいてターンの終わりに、報酬を乗数として使用して重みを調整します
スパイクのタイミングは、ニューロンの発火の順序と、どの発火が正解につながる可能性が高かったかを追跡します
ご意見をお聞かせください
トップ
ランキング
お気に入り

