Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

echo.hive
Kontinuierliches Attraktor-Netzwerk und Grenzvektor-Zellen (Schnurrhaare), kombiniert mit 3 Motoneuronen, lernen, Hindernisse zu überwinden und sich in Richtung Nahrung zu bewegen
Kein Backpropagation. Belohnungen modulieren das Lernen mit Eignungsspuren
Link zum Quellcode im Kommentar.

echo.hiveVor 14 Stunden
Ich habe ein kontinuierliches Attraktor-Netzwerk mit 3 Motoneuronen gebaut, das lernt, die Mäuse mit Hilfe von belohnungsmodulierter Hebbscher Plastizität zum Futter zu führen.
Kein Backpropagation und kein SGD.
In diesem Fall hat das Netzwerk zunächst gelernt, um das Futter zu kreisen 😯
Der Quellcode ist Open Source. Link im Kommentar.
36 Neuronen im CAN erkennen, wo das Futter ist, jedes Neuron in diesem Netzwerk verbindet sich mit jedem Motoneuron.
Zunächst sind die Verbindungen zufällig und schwach, und sie werden stärker, wenn die Mäuse sich dem Futter nähern und es erreichen. Das Netzwerk verfolgt, welche Neuronen zusammen feuerten, um dies zu erreichen, und stärkt diese Verbindungen.
Wenn du das interessant findest, schau dir mein Projekt zu spiking neural networks an. Ich werde auch einen Link dazu im Kommentar setzen.
8,57K
Ich habe ein kontinuierliches Attraktor-Netzwerk mit 3 Motoneuronen gebaut, das lernt, die Mäuse mit Hilfe von belohnungsmodulierter Hebbscher Plastizität zum Futter zu führen.
Kein Backpropagation und kein SGD.
In diesem Fall hat das Netzwerk zunächst gelernt, um das Futter zu kreisen 😯
Der Quellcode ist Open Source. Link im Kommentar.
36 Neuronen im CAN erkennen, wo das Futter ist, jedes Neuron in diesem Netzwerk verbindet sich mit jedem Motoneuron.
Zunächst sind die Verbindungen zufällig und schwach, und sie werden stärker, wenn die Mäuse sich dem Futter nähern und es erreichen. Das Netzwerk verfolgt, welche Neuronen zusammen feuerten, um dies zu erreichen, und stärkt diese Verbindungen.
Wenn du das interessant findest, schau dir mein Projekt zu spiking neural networks an. Ich werde auch einen Link dazu im Kommentar setzen.

echo.hiveVor 19 Stunden
Spiking Neural Network von Grund auf erreicht 8% Genauigkeit. keine Rückpropagation oder SGD
Ich habe einen genetischen Hyperparameter-Optimierer erstellt und er kann jetzt im Durchschnitt 8% Genauigkeit erreichen, was ~3% über dem Zufallsniveau liegt.
Link zum Quellcode mit einem detaillierten Video und Markdown-Erklärungen im Kommentar.
Es beginnt normalerweise unter 5% und verbessert sich langsam, kann dann schließlich unter 5% fallen, was mich glauben lässt, dass es Anzeichen von Lernen gibt. Manchmal stabilisiert es sich um 7-8-9% für lange Zeit.
Es gibt keine Rückpropagation oder SGD. Es lernt über STDP (spike timing dependent plasticity) und einen Belohnungsmechanismus.
Jedes Beispiel wird viele Male (500 in diesem Fall) präsentiert, was einen Spike-Zug erzeugt, der zu einer Berechtigungsliste führt. Am Ende eines Zuges, basierend darauf, ob die Antwort korrekt war oder nicht, passen wir die Gewichte unter Verwendung der Belohnung als Multiplikator an.
Spike-Timing verfolgt die Reihenfolge der Neuronenfeuerungen und welche wahrscheinlicher zur richtigen Antwort geführt haben.
Lass mich wissen, was du denkst.
60,74K
Tintenfische haben riesige Axone, um ihr „Fluchtjet-Nervensystem“ zu unterstützen.
Diese Axone sind ~500x größer als normale Axone.
Axone übertragen Aktionspotentiale schneller, entweder wenn sie einen größeren Durchmesser haben oder wenn sie gut myelinisiert sind. Myelin ist irgendwie wie die Plastikfolie um Kabel (wie Isolierung).
Das Axon ist der Teil des Neurons, der direkt nach dem Zellkern kommt und das Spike-Signal des Neurons überträgt, wenn das Signal die Schwelle am Axonhügel überschreitet.
Und riesige Axone sind nicht myelinisiert.

1,86K
Top
Ranking
Favoriten
