Wszyscy mieliśmy do czynienia z funkcjami aktywacji podczas pracy z sieciami neuronowymi. - Sigmoid - Tanh - ReLu i Leaky ReLu - Gelu Zastanawiałeś się kiedyś, dlaczego są tak ważne❓🤔 Pozwól, że wyjaśnię... 👇