Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

echo.hive
Ciągła sieć przyciągająca i komórki wektorowe graniczne (wąsy) połączone z 3 neuronami ruchowymi uczą się nawigować przez przeszkody i zmierzać w kierunku jedzenia
Brak wstecznej propagacji. nauka modulowana nagrodami z śladami uprawnień
Link do kodu źródłowego w komentarzu.

echo.hive14 godz. temu
Zbudowałem Sieć Ciągłego Atrakcyjnego z 3 neuronami ruchowymi, które uczą się prowadzić myszy do jedzenia, wykorzystując plastyczność Hebbiana modulowaną nagrodą.
Bez wstecznej propagacji i bez SGD.
Na początku sieć uczyła się krążyć wokół jedzenia 😯
Kod źródłowy jest otwarty. Link w komentarzu.
36 neuronów w CAN wykrywa, gdzie znajduje się jedzenie, każdy neuron w tej sieci łączy się z każdym neuronem ruchowym.
Na początku połączenia są losowe i słabe, a stają się silniejsze, gdy myszy zbliżają się do jedzenia i je osiągają. Sieć robi to, śledząc, które neurony aktywowały się razem, aby to osiągnąć i wzmacniając te połączenia.
Jeśli to cię interesuje, sprawdź mój projekt dotyczący sieci neuronowych z impulsami. Również zamieszczę link do tego w komentarzu.
8,58K
Zbudowałem Sieć Ciągłego Atrakcyjnego z 3 neuronami ruchowymi, które uczą się prowadzić myszy do jedzenia, wykorzystując plastyczność Hebbiana modulowaną nagrodą.
Bez wstecznej propagacji i bez SGD.
Na początku sieć uczyła się krążyć wokół jedzenia 😯
Kod źródłowy jest otwarty. Link w komentarzu.
36 neuronów w CAN wykrywa, gdzie znajduje się jedzenie, każdy neuron w tej sieci łączy się z każdym neuronem ruchowym.
Na początku połączenia są losowe i słabe, a stają się silniejsze, gdy myszy zbliżają się do jedzenia i je osiągają. Sieć robi to, śledząc, które neurony aktywowały się razem, aby to osiągnąć i wzmacniając te połączenia.
Jeśli to cię interesuje, sprawdź mój projekt dotyczący sieci neuronowych z impulsami. Również zamieszczę link do tego w komentarzu.

echo.hive19 godz. temu
Spiking Neural Network od podstaw osiąga 8% dokładności. brak wstecznej propagacji ani SGD
Stworzyłem genetyczny optymalizator hiperparametrów i teraz, średnio, może uzyskać 8% dokładności, co jest ~3% powyżej szansy
Link do kodu źródłowego z szczegółowym wideo i wyjaśnieniami w markdown w komentarzu
Zwykle zaczyna się poniżej 5% i powoli się poprawia, a następnie może zacząć spadać poniżej 5%, co prowadzi mnie do przekonania, że zachodzą pewne oznaki uczenia się. Czasami stabilizuje się wokół 7-8-9% przez długi czas
Nie ma wstecznej propagacji ani SGD. Uczy się za pomocą STDP (plastyczność zależna od czasu impulsów) i mechanizmu nagrody
Każdy przykład jest prezentowany wiele razy (500 w tym przypadku), co produkuje ciąg impulsów, który prowadzi do listy uprawnień, na końcu tury, w zależności od tego, czy odpowiedź była poprawna, dostosowujemy wagi, używając nagrody jako mnożnika
Czas impulsów śledzi sekwencję wystrzałów neuronów i które z nich były bardziej prawdopodobne, aby doprowadzić do poprawnej odpowiedzi
Daj mi znać, co o tym myślisz
60,74K
Kałamarnice mają gigantyczne aksony, które wspomagają ich „system nerwowy do ucieczki jet”
Te aksony są ~500 razy większe niż zwykłe aksony
Aksony przesyłają potencjały czynnościowe szybciej, gdy mają większą średnicę lub gdy są dobrze mielinizowane. Mielina jest trochę jak plastikowy owijacz wokół kabli (jak izolacja)
Akson to część neuronu, która znajduje się tuż po jądrze i przenosi sygnał skoku neuronu, jeśli sygnał przekroczy próg w stożku aksonu.
A gigantyczne aksony nie są mielinizowane

1,86K
Najlepsze
Ranking
Ulubione
