Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

echo.hive
Безперервна мережа атракторів і граничні векторні клітини (вуса) в поєднанні з 3 руховими нейронами вчаться долати перешкоди і йти назустріч їжі
Без зворотного поширення. Винагороджує модульоване навчання з відстеженням відповідності вимогам
Посилання на вихідний код у коментарі.

echo.hive14 годин тому
Я побудував безперервну мережу атракторів з 3 руховими нейронами, які вчаться направляти мишей до їжі за допомогою модулюваної винагородою геббової пластичності
Ніякого зворотного поширення і ніякого СГД.
При цьому спочатку мережевики навчилися кружляти навколо їжі 😯
Вихідний код має відкритий вихідний код. посилання в коментарі
36 нейронів в CAN визначають, де знаходиться їжа, кожен нейрон у цій мережі з'єднується з кожним руховим нейроном.
Спочатку зв'язки випадкові і слабкі, і вони стають сильнішими, коли миші наближаються до їжі і досягають її. Мережа робить це, відстежуючи, які нейрони спрацювали разом, щоб досягти цього та зміцнити ці зв'язки
Якщо ви вважаєте це цікавим, перегляньте мій проект нейронних мереж Spiking. Я також подам посилання на це в коментарі
8,57K
Я побудував безперервну мережу атракторів з 3 руховими нейронами, які вчаться направляти мишей до їжі за допомогою модулюваної винагородою геббової пластичності
Ніякого зворотного поширення і ніякого СГД.
При цьому спочатку мережевики навчилися кружляти навколо їжі 😯
Вихідний код має відкритий вихідний код. посилання в коментарі
36 нейронів в CAN визначають, де знаходиться їжа, кожен нейрон у цій мережі з'єднується з кожним руховим нейроном.
Спочатку зв'язки випадкові і слабкі, і вони стають сильнішими, коли миші наближаються до їжі і досягають її. Мережа робить це, відстежуючи, які нейрони спрацювали разом, щоб досягти цього та зміцнити ці зв'язки
Якщо ви вважаєте це цікавим, перегляньте мій проект нейронних мереж Spiking. Я також подам посилання на це в коментарі

echo.hive19 годин тому
Spiking Neural Network з нуля досягає точності 8%. без зворотного поширення або SGD
Я створив оптимізатор генетичних гіперпараметрів, і він зараз, в середньому, може отримати точність 8%, що на ~3% вище шансу
Посилання на вихідний код з детальним відео та поясненнями Markdown у коментарі
Він також зазвичай починається нижче 5% і повільно покращується, а потім в кінцевому підсумку може почати опускатися нижче 5%, все це змушує мене вірити, що є проблиски навчання, що відбувається. У деяких випадках це стабель в районі 7-8-9% протягом тривалого часу
немає зворотного поширення або SGD. він навчається за допомогою STDP (пластичність, залежна від часу спайка) та механізму винагороди
Кожен приклад представлений n багато разів (у цьому випадку 500), що створює спайковий поїзд, який веде до списку відповідності, в кінці ходу залежно від того, чи була відповідь правильною чи ні, ми коригуємо ваги, використовуючи винагороду як множник
Spike Timing відстежує послідовність збуджень нейронів і які з них з більшою ймовірністю призвели до правильної відповіді
Дайте мені знати, що ви думаєте
60,73K
Кальмари мають гігантські аксони, які допомагають їм працювати з «нервовою системою втечі»
Ці аксони в ~500 разів більші за правильні аксони
Аксони швидше передають потенціали дії або коли вони мають більший діаметр, або коли вони добре міелінізіровані. Мієлін схожий на пластикову обгортку навколо кабелів (як ізоляція)
Аксон - це частина нейрона, яка йде відразу за ядром, яка несе спайковий сигнал нейрона, якщо сигнал проходить поріг в горбку аксона.
І гігантські аксони не мієлінізуються

1,86K
Найкращі
Рейтинг
Вибране
